Utilisez cette liste de décisions de conception pour référence concernant la configuration du réseau physique dans un environnement disposant d'une ou de plusieurs instances de VMware Cloud Foundation. La conception prend également en compte si une instance contient une ou plusieurs zones de disponibilité.

Pour plus d'informations sur la conception, reportez-vous à la section Conception de l'infrastructure du réseau physique pour VMware Cloud Foundation.

Tableau 1. Conditions requises pour la conception de réseau physique feuille-tronc pour VMware Cloud Foundation

ID de conditions requises

Conditions requises pour la conception

Justification

Implication

VCF-NET-REQD-CFG-001

N'utilisez pas la configuration EtherChannel (LAG, LACP ou vPC) pour les liaisons montantes de l'hôte ESXi.

  • Simplifie la configuration des commutateurs Top of Rack.

  • Les options d'association disponibles avec vSphere Distributed Switch fournissent l'équilibrage de charge et le basculement.

  • Les mises en œuvre EtherChannel peuvent présenter des limitations propres au fournisseur.

Aucun.

VCF-NET-REQD-CFG-002

Utilisez des VLAN pour séparer les fonctions de réseau physique.

  • Prend en charge la connectivité réseau physique sans nécessiter de nombreuses cartes réseau.

  • Isole les différentes fonctions réseau dans le SDDC afin que vous puissiez disposer de services différenciés et hiérarchiser le trafic si nécessaire.

Nécessite une configuration et une présentation uniformes sur toutes les jonctions mises à la disposition des hôtes ESXi.

VCF-NET-REQD-CFG-003

Configurez les VLAN comme membres d'une jonction 802.1Q.

Tous les VLAN deviennent disponibles sur les mêmes adaptateurs réseau physiques sur les hôtes ESXi.

Le VLAN de gestion peut éventuellement agir en tant que VLAN natif.

VCF-NET-REQD-CFG-004

Définissez la taille de la MTU sur au moins 1 700 octets (9 000 octets recommandés pour les trames Jumbo) sur les ports de commutateur physique, les commutateurs vSphere Distributed Switch, les groupes de ports vSphere Distributed Switch et les commutateurs N-VDS qui prennent en charge les types de trafic suivants :

  • Superposition (Geneve)

  • vSAN

  • vSphere vMotion

  • Améliore le débit du trafic.

  • Prend en charge Geneve en augmentant la taille de MTU à un minimum de 1 600 octets.

  • Geneve est un protocole extensible. La taille de la MTU peut augmenter avec les capacités futures. Bien que 1 600 octets soient suffisants, une taille de MTU de 1 700 octets offre plus d'espace pour augmenter la taille de la MTU Geneve sans avoir à modifier la taille de MTU de l'infrastructure physique.

Lors de l'ajustement de la taille des paquets MTU, vous devez également configurer l'intégralité du chemin réseau (adaptateurs réseau VMkernel, commutateurs virtuels, commutateurs physiques et routeurs) pour prendre en charge la même taille des paquets MTU.

Dans un environnement comportant plusieurs zones de disponibilité, la MTU doit être configurée sur l'intégralité du chemin réseau entre les zones.

Tableau 2. Conditions requises pour la conception de réseau physique feuille-tronc pour la fédération NSX dans VMware Cloud Foundation

ID de conditions requises

Conditions requises pour la conception

Justification

Implication

VCF-NET-REQD-CFG-005

Définissez la taille de MTU sur au moins 1 500 octets (1 700 octets préférés ; 9 000 octets recommandés pour les trames Jumbo) sur les composants du réseau physique entre les instances de VMware Cloud Foundation pour les types de trafic suivants.

  • RTEP NSX Edge

  • Les trames Jumbo ne sont pas requises entre les instances de VMware Cloud Foundation. Toutefois, une MTU accrue améliore le débit du trafic.

  • L'augmentation de la MTU RTEP à 1 700 octets réduit la fragmentation des paquets de charge de travail de taille standard entre les instances de VMware Cloud Foundation.

Lors de l'ajustement de la taille des paquets MTU, vous devez également configurer l'intégralité du chemin réseau, c'est-à-dire les interfaces virtuelles, les commutateurs virtuels, les commutateurs physiques et les routeurs pour prendre en charge la même taille des paquets MTU.

VCF-NET-REQD-CFG-006

Assurez-vous que la latence entre les instances de VMware Cloud Foundation connectées dans une fédération NSX est inférieure à 150 ms.

Une latence inférieure à 150 ms est requise pour les fonctionnalités suivantes :

  • Cross-vCenter Server vMotion

  • Fédération NSX

Aucun.

VCF-NET-REQD-CFG-007

Fournissez une connexion routée entre les clusters NSX Manager dans les instances de VMware Cloud Foundation connectées dans une fédération NSX.

La configuration de la fédération NSX nécessite une connectivité entre les instances du gestionnaire global NSX, les instances du gestionnaire local NSX et les clusters NSX Edge.

Vous devez attribuer des adresses IP routables uniques pour chaque domaine de pannes.

Tableau 3. Recommandations en matière de conception de réseau physique feuille-tronc pour VMware Cloud Foundation

ID de recommandation

Recommandation en matière de conception

Justification

Implication

VCF-NET-RCMD-CFG-001

Utilisez deux commutateurs ToR pour chaque rack.

Prend en charge l'utilisation de deux liaisons 10 GbE (au moins 25 GbE recommandés) vers chaque serveur, fournit une redondance et réduit la complexité globale de la conception.

Nécessite deux commutateurs ToR par rack, ce qui peut augmenter les coûts.

VCF-NET-RCMD-CFG-002

Mettez en œuvre l'architecture réseau physique suivante :

  • Un port de 25 GbE (10 GbE minimum) sur chaque commutateur ToR pour les liaisons montantes de l'hôte ESXi (hôte vers ToR).

  • Périphérique de couche 3 prenant en charge BGP.

  • Fournit la disponibilité lors d'une panne de commutateur.

  • Fournit la prise en charge du protocole de routage dynamique BGP

  • Peut limiter les choix de matériel.

  • Nécessite la configuration du protocole de routage dynamique dans le réseau physique.

VCF-NET-RCMD-CFG-003

Utilisez un réseau physique configuré pour la contiguïté de routage BGP.

  • Prend en charge la flexibilité de conception pour le routage de charges de travail multisite et mutualisée.

  • BGP est le seul protocole de routage dynamique pris en charge pour la fédération NSX.

  • Prend en charge le basculement entre les liaisons montantes ECMP Edge.

Nécessite une configuration BGP dans le réseau physique.

VCF-NET-RCMD-CFG-004

Attribuez des configurations d'adresses IP persistantes pour les points de terminaison de tunnel (TEP) NSX qui utilisent l'allocation d'adresses IP dynamiques plutôt que l'adressage du pool d'adresses IP statiques.

  • Garantit que les points de terminaison disposent d'une adresse IP TEP persistante.

  • Dans VMware Cloud Foundation, l'attribution d'adresses IP TEP sur DHCP est requise pour les topologies de déploiement avancées, telles que le domaine de gestion, avec plusieurs zones de disponibilité.

  • Les pools statiques dans NSX Manager ne prennent en charge qu'une zone de disponibilité unique.

Nécessite la disponibilité d'un serveur DHCP sur le VLAN TEP.

VCF-NET-RCMD-CFG-005

Définissez la durée de bail de l'étendue DHCP pour le réseau superposé de l'hôte sur au moins 7 jours.

Les adresses IP des ports VMkernel de superposition de l'hôte sont attribuées à l'aide d'un serveur DHCP.

  • Les ports VMkernel de superposition de l'hôte ne disposent pas d'un point de terminaison administratif. Par conséquent, ils peuvent utiliser DHCP pour l'attribution automatique d'adresses IP. Si vous devez modifier ou développer le sous-réseau, la modification de l'étendue DHCP est plus simple que la création d'un pool d'adresses IP et son attribution aux hôtes ESXi.

  • DHCP simplifie la configuration d'une passerelle par défaut pour les ports VMkernel de superposition d'hôtes si les hôtes du même cluster se trouvent sur des domaines de couche 2 distincts.

Nécessite la configuration et la gestion d'un serveur DHCP.

VCF-NET-RCMD-CFG-006

Désignez les ports de jonction connectés aux cartes réseau ESXi comme PortFast de jonction.

Réduit le délai de transition des ports vers l'état de transfert.

Bien que cette conception n'utilise pas le protocole STP, celui-ci est généralement configuré par défaut sur les commutateurs.

VCF-NET-RCMD-CFG-007

Configurez VRRP, HSRP ou une autre méthode de disponibilité de passerelle de couche 3 pour ces réseaux.

  • Gestion

  • Superposition du dispositif Edge

Garantit que les VLAN étendus entre les zones de disponibilité sont connectés à une passerelle hautement disponible. Sinon, une panne dans la passerelle de couche 3 entraîne une interruption du trafic dans la configuration SDN.

Nécessite la configuration d'une technologie haute disponibilité pour les passerelles de couche 3 dans le centre de données.

Tableau 4. Recommandations en matière de conception de réseau physique feuille-tronc pour les clusters étendus avec VMware Cloud Foundation

ID de recommandation

Recommandation en matière de conception

Justification

Implication

VCF-NET-RCMD-CFG-008

Fournissez une haute disponibilité pour le serveur DHCP ou l'aide DHCP utilisée pour les VLAN nécessitant des services DHCP étendus entre les zones de disponibilité.

Garantit qu'une opération de basculement d'une zone de disponibilité unique n'a aucune incidence sur la disponibilité de DHCP.

Nécessite la configuration d'un serveur DHCP hautement disponible.

Tableau 5. Recommandations en matière de conception de réseau physique feuille-tronc pour la fédération NSX dans VMware Cloud Foundation

ID de recommandation

Recommandation en matière de conception

Justification

Implication

VCF-NET-RCMD-CFG-009

Fournissez le routage BGP entre toutes les instances de VMware Cloud Foundation qui se connectent dans une configuration de la fédération NSX.

BGP est le protocole de routage pris en charge pour la fédération NSX.

Aucun.