Utilisez cette liste de décisions de conception pour référence concernant la configuration du réseau physique dans un environnement disposant d'une ou de plusieurs instances de VMware Cloud Foundation. La conception prend également en compte si une instance contient une ou plusieurs zones de disponibilité.

Pour plus d'informations sur la conception, reportez-vous à la section Conception de l'infrastructure du réseau physique pour VMware Cloud Foundation.

Tableau 1. Conditions requises pour la conception de réseau physique feuille-tronc pour VMware Cloud Foundation

ID de conditions requises

Conditions requises pour la conception

Justification

Implication

VCF-NET-REQD-CFG-001

N'utilisez pas la configuration EtherChannel (LAG, LACP ou vPC) pour les liaisons montantes de l'hôte ESXi.

  • Simplifie la configuration des commutateurs Top-of-Rack.

  • Les options d'association disponibles avec vSphere Distributed Switch fournissent l'équilibrage de charge et le basculement.

  • Les mises en œuvre EtherChannel peuvent présenter des limitations propres au fournisseur.

Aucun.

VCF-NET-REQD-CFG-002

Utilisez des VLAN pour séparer les fonctions de réseau physique.

  • Prend en charge la connectivité réseau physique sans nécessiter de nombreuses cartes réseau.

  • Isole les différentes fonctions réseau dans le SDDC afin que vous puissiez disposer de services différenciés et hiérarchiser le trafic si nécessaire.

Nécessite une configuration et une présentation uniformes sur toutes les jonctions mises à la disposition des hôtes ESXi.

VCF-NET-REQD-CFG-003

Configurez les VLAN comme membres d'une jonction 802.1Q.

Tous les VLAN deviennent disponibles sur les mêmes adaptateurs réseau physiques sur les hôtes ESXi.

Le VLAN de gestion peut éventuellement agir en tant que VLAN natif.

VCF-NET-REQD-CFG-004

Définissez la taille de la MTU sur au moins 1 700 octets (9 000 octets recommandés pour les trames Jumbo) sur les ports de commutateur physique, les commutateurs vSphere Distributed Switch, les groupes de ports vSphere Distributed Switch et les commutateurs N-VDS qui prennent en charge les types de trafic suivants :

  • Superposition (Geneve)

  • vSAN

  • vSphere vMotion

  • Améliore le débit du trafic.

  • Prend en charge Geneve en augmentant la taille de MTU à un minimum de 1 600 octets.

  • Geneve est un protocole extensible. La taille de la MTU peut augmenter avec les capacités futures. Bien que 1 600 octets soient suffisants, une taille de MTU de 1 700 octets offre plus d'espace pour augmenter la taille de la MTU Geneve sans avoir à modifier la taille de MTU de l'infrastructure physique.

Lors de l'ajustement de la taille des paquets MTU, vous devez également configurer l'intégralité du chemin réseau (adaptateurs réseau VMkernel, commutateurs virtuels, commutateurs physiques et routeurs) pour prendre en charge la même taille des paquets MTU.

Dans un environnement comportant plusieurs zones de disponibilité, la MTU doit être configurée sur l'intégralité du chemin réseau entre les zones.

Tableau 2. Conditions requises pour la conception de réseaux physiques feuille-tronc pour le cluster de domaine de charge de travail VI de calcul sur plusieurs racks pour VMware Cloud Foundation

ID de conditions requises

Conditions requises pour la conception

Justification

Implication

VCF-NET-L3MR-REQD-CFG-001

Pour un cluster de domaine de charge de travail VI de calcul sur plusieurs racks, fournissez des VLAN distincts par rack pour chaque fonction réseau.

  • Gestion des hôtes

  • vSAN

  • vSphere vMotion

  • Superposition de l'hôte

Une infrastructure feuille-tronc de couche 3 possède une limite de couche 3 au niveau des commutateurs feuilles dans chaque rack créant une limite de couche 3 entre les racks.

Nécessite des VLAN supplémentaires pour chaque rack.

VCF-NET-L3MR-REQD-CFG-002

Pour un cluster de domaine de charge de travail VI de calcul sur plusieurs racks, les sous-réseaux de chaque réseau par rack doivent être routables et accessibles aux commutateurs feuilles dans les autres racks.

  • Gestion des hôtes

  • vSAN

  • vSphere vMotion

  • Superposition de l'hôte

Garantit la circulation du trafic de chaque réseau entre les racks.

Nécessite une configuration réseau physique supplémentaire pour rendre les réseaux routables entre les racks.

Tableau 3. Conditions requises pour la conception de réseaux physiques feuille-tronc pour la disponibilité des dispositifs NSX Edge sur plusieurs racks pour VMware Cloud Foundation

ID de conditions requises

Conditions requises pour la conception

Justification

Implication

VCF-NET-MRE-REQD-CFG-001

Pour la disponibilité de NSX Edge sur plusieurs racks, configurez les commutateurs feuilles avec les VLAN suivants dans chaque rack dédié aux nœuds Edge :

  • Gestion des VM

  • Liaison montante 1 du dispositif Edge

  • Liaison montante 2 du dispositif Edge

  • Superposition du dispositif Edge

Une infrastructure feuille-tronc de couche 3 possède une limite de couche 3 au niveau des commutateurs feuilles dans chaque rack créant une limite de couche 3 entre les racks.

Nécessite des VLAN supplémentaires pour chaque rack.

VCF-NET-MRE-REQD-CFG-002

Pour la disponibilité de NSX Edge sur plusieurs racks, les sous-réseaux des réseaux suivants doivent être routables et accessibles aux commutateurs feuilles de l'autre rack dans chaque rack dédié aux nœuds Edge.

  • Gestion des VM

  • Superposition du dispositif Edge

Garantit la circulation du trafic pour le réseau des TEP Edge entre les racks.

Nécessite une configuration réseau physique supplémentaire pour garantir que les réseaux sont routables entre les racks.

Tableau 4. Conditions requises pour la conception de réseau physique feuille-tronc pour la fédération NSX dans VMware Cloud Foundation

ID de conditions requises

Conditions requises pour la conception

Justification

Implication

VCF-NET-REQD-CFG-005

Définissez la taille de MTU sur au moins 1 500 octets (1 700 octets préférés ; 9 000 octets recommandés pour les trames Jumbo) sur les composants du réseau physique entre les instances de VMware Cloud Foundation pour les types de trafic suivants.

  • RTEP NSX Edge

  • Les trames Jumbo ne sont pas requises entre les instances de VMware Cloud Foundation. Toutefois, une MTU accrue améliore le débit du trafic.

  • L'augmentation de la MTU RTEP à 1 700 octets réduit la fragmentation des paquets de charge de travail de taille standard entre les instances de VMware Cloud Foundation.

Lors de l'ajustement de la taille des paquets MTU, vous devez également configurer l'intégralité du chemin réseau, c'est-à-dire les interfaces virtuelles, les commutateurs virtuels, les commutateurs physiques et les routeurs pour prendre en charge la même taille des paquets MTU.

VCF-NET-REQD-CFG-006

Assurez-vous que la latence entre les instances de VMware Cloud Foundation connectées dans une fédération NSX est inférieure à 500 ms.

La fédération NSX nécessite une latence inférieure à 500 ms.

Aucun.

VCF-NET-REQD-CFG-007

Fournissez une connexion routée entre les clusters NSX Manager dans les instances de VMware Cloud Foundation connectées dans une fédération NSX.

La configuration de la fédération NSX nécessite une connectivité entre les instances du gestionnaire global NSX, les instances du gestionnaire local NSX et les clusters NSX Edge.

Vous devez attribuer des adresses IP routables uniques pour chaque domaine de pannes.

Tableau 5. Recommandations en matière de conception de réseau physique feuille-tronc pour VMware Cloud Foundation

ID de recommandation

Recommandation en matière de conception

Justification

Implication

VCF-NET-RCMD-CFG-001

Utilisez deux commutateurs ToR pour chaque rack.

Prend en charge l'utilisation de deux liaisons 10 GbE (au moins 25 GbE recommandés) vers chaque serveur, fournit une redondance et réduit la complexité globale de la conception.

Nécessite deux commutateurs ToR par rack, ce qui peut augmenter les coûts.

VCF-NET-RCMD-CFG-002

Mettez en œuvre l'architecture réseau physique suivante :

  • Au moins un port de 25 GbE (10 GbE minimum) sur chaque commutateur ToR pour les liaisons montantes de l'hôte ESXi (hôte vers ToR).

  • Périphérique de couche 3 prenant en charge BGP.

  • Fournit la disponibilité lors d'une panne de commutateur.

  • Fournit la prise en charge du protocole de routage dynamique BGP

  • Peut limiter les choix de matériel.

  • Nécessite la configuration du protocole de routage dynamique dans le réseau physique.

VCF-NET-RCMD-CFG-003

Utilisez un réseau physique configuré pour la contiguïté de routage BGP.

  • Prend en charge la flexibilité de conception pour le routage de charges de travail multisite et mutualisée.

  • BGP est le seul protocole de routage dynamique pris en charge pour la fédération NSX.

  • Prend en charge le basculement entre les liaisons montantes ECMP Edge.

Nécessite une configuration BGP dans le réseau physique.

VCF-NET-RCMD-CFG-004

Attribuez des configurations d'adresses IP persistantes pour les points de terminaison de tunnel (TEP) NSX qui utilisent l'adressage des pools d'adresses IP dynamiques plutôt que celui des pools d'adresses IP dynamiques.

  • Garantit que les points de terminaison disposent d'une adresse IP TEP persistante.

  • Dans VMware Cloud Foundation, l'attribution d'adresses IP de TEP à l'aide de pools d'adresses IP statiques est recommandée pour toutes les topologies.

  • Cette configuration supprime toutes les conditions requises pour les services DHCP externes.

L'ajout d'hôtes supplémentaires au cluster peut nécessiter l'augmentation des pools d'adresses IP statiques.

VCF-NET-RCMD-CFG-005

Configurez les ports de jonction connectés aux cartes réseau ESXi comme PortFast de jonction.

Réduit le délai de transition des ports vers l'état de transfert.

Bien que cette conception n'utilise pas le protocole STP, celui-ci est généralement configuré par défaut sur les commutateurs.

VCF-NET-RCMD-CFG-006

Configurez VRRP, HSRP ou une autre méthode de disponibilité de passerelle de couche 3 pour ces réseaux.

  • Gestion

  • Superposition du dispositif Edge

Garantit que les VLAN étendus entre les zones de disponibilité sont connectés à une passerelle hautement disponible. Sinon, une panne dans la passerelle de couche 3 entraîne une interruption du trafic dans la configuration SDN.

Nécessite la configuration d'une technologie haute disponibilité pour les passerelles de couche 3 dans le centre de données.

VCF-NET-RCMD-CFG-007

Utilisez des VLAN distincts pour les fonctions réseau de chaque cluster.

Réduit la taille du domaine de diffusion de couche 2 à un cluster vSphere unique.

Augmente le nombre global de VLAN requis pour une instance de VMware Cloud Foundation.

Tableau 6. Recommandations en matière de conception de réseaux physiques feuille-tronc pour la montée en charge et les performances du dispositif Edge dédié de VMware Cloud Foundation

ID de recommandation

Recommandation en matière de conception

Justification

Implication

VCF-NET-DES-RCMD-CFG-001

Mettez en œuvre l'architecture réseau physique suivante :

  • Deux ports de 100 GbE sur chaque commutateur ToR pour les liaisons montantes de l'hôte ESXi (hôte vers ToR).

  • Périphérique de couche 3 prenant en charge BGP.

Prend en charge les conditions requises pour la bande passante élevée et les paquets par seconde pour les déploiements à grande échelle.

Nécessite des commutateurs réseau de 100 GbE.

Tableau 7. Recommandations en matière de conception de réseau physique feuille-tronc pour la fédération NSX dans VMware Cloud Foundation

ID de recommandation

Recommandation en matière de conception

Justification

Implication

VCF-NET-RCMD-CFG-008

Fournissez le routage BGP entre toutes les instances de VMware Cloud Foundation connectées dans une configuration de la fédération NSX.

BGP est le protocole de routage pris en charge pour la fédération NSX.

Aucun.

VCF-NET-RCMD-CFG-009

Assurez-vous que la latence entre les instances de VMware Cloud Foundation connectées dans une fédération NSX est inférieure à 150 ms pour la mobilité des charges de travail.

Une latence inférieure à 150 ms est requise pour les fonctionnalités suivantes :

  • Cross-vCenter Server vMotion

Aucun.