Utilisez cette liste de décisions de conception pour référence concernant la configuration du réseau physique dans un environnement disposant d'une ou de plusieurs instances de VMware Cloud Foundation. La conception prend également en compte si une instance contient une ou plusieurs zones de disponibilité.
Pour plus d'informations sur la conception, reportez-vous à la section Conception de l'infrastructure du réseau physique pour VMware Cloud Foundation.
ID de conditions requises |
Conditions requises pour la conception |
Justification |
Implication |
---|---|---|---|
VCF-NET-REQD-CFG-001 |
N'utilisez pas la configuration EtherChannel (LAG, LACP ou vPC) pour les liaisons montantes de l'hôte ESXi. |
|
Aucun. |
VCF-NET-REQD-CFG-002 |
Utilisez des VLAN pour séparer les fonctions de réseau physique. |
|
Nécessite une configuration et une présentation uniformes sur toutes les jonctions mises à la disposition des hôtes ESXi. |
VCF-NET-REQD-CFG-003 |
Configurez les VLAN comme membres d'une jonction 802.1Q. |
Tous les VLAN deviennent disponibles sur les mêmes adaptateurs réseau physiques sur les hôtes ESXi. |
Le VLAN de gestion peut éventuellement agir en tant que VLAN natif. |
VCF-NET-REQD-CFG-004 |
Définissez la taille de la MTU sur au moins 1 700 octets (9 000 octets recommandés pour les trames Jumbo) sur les ports de commutateur physique, les commutateurs vSphere Distributed Switch, les groupes de ports vSphere Distributed Switch et les commutateurs N-VDS qui prennent en charge les types de trafic suivants :
|
|
Lors de l'ajustement de la taille des paquets MTU, vous devez également configurer l'intégralité du chemin réseau (adaptateurs réseau VMkernel, commutateurs virtuels, commutateurs physiques et routeurs) pour prendre en charge la même taille des paquets MTU. Dans un environnement comportant plusieurs zones de disponibilité, la MTU doit être configurée sur l'intégralité du chemin réseau entre les zones. |
ID de conditions requises |
Conditions requises pour la conception |
Justification |
Implication |
---|---|---|---|
VCF-NET-L3MR-REQD-CFG-001 |
Pour un cluster de domaine de charge de travail VI de calcul sur plusieurs racks, fournissez des VLAN distincts par rack pour chaque fonction réseau.
|
Une infrastructure feuille-tronc de couche 3 possède une limite de couche 3 au niveau des commutateurs feuilles dans chaque rack créant une limite de couche 3 entre les racks. |
Nécessite des VLAN supplémentaires pour chaque rack. |
VCF-NET-L3MR-REQD-CFG-002 |
Pour un cluster de domaine de charge de travail VI de calcul sur plusieurs racks, les sous-réseaux de chaque réseau par rack doivent être routables et accessibles aux commutateurs feuilles dans les autres racks.
|
Garantit la circulation du trafic de chaque réseau entre les racks. |
Nécessite une configuration réseau physique supplémentaire pour rendre les réseaux routables entre les racks. |
ID de conditions requises |
Conditions requises pour la conception |
Justification |
Implication |
---|---|---|---|
VCF-NET-MRE-REQD-CFG-001 |
Pour la disponibilité de NSX Edge sur plusieurs racks, configurez les commutateurs feuilles avec les VLAN suivants dans chaque rack dédié aux nœuds Edge :
|
Une infrastructure feuille-tronc de couche 3 possède une limite de couche 3 au niveau des commutateurs feuilles dans chaque rack créant une limite de couche 3 entre les racks. |
Nécessite des VLAN supplémentaires pour chaque rack. |
VCF-NET-MRE-REQD-CFG-002 |
Pour la disponibilité de NSX Edge sur plusieurs racks, les sous-réseaux des réseaux suivants doivent être routables et accessibles aux commutateurs feuilles de l'autre rack dans chaque rack dédié aux nœuds Edge.
|
Garantit la circulation du trafic pour le réseau des TEP Edge entre les racks. |
Nécessite une configuration réseau physique supplémentaire pour garantir que les réseaux sont routables entre les racks. |
ID de conditions requises |
Conditions requises pour la conception |
Justification |
Implication |
---|---|---|---|
VCF-NET-REQD-CFG-005 |
Définissez la taille de MTU sur au moins 1 500 octets (1 700 octets préférés ; 9 000 octets recommandés pour les trames Jumbo) sur les composants du réseau physique entre les instances de VMware Cloud Foundation pour les types de trafic suivants.
|
|
Lors de l'ajustement de la taille des paquets MTU, vous devez également configurer l'intégralité du chemin réseau, c'est-à-dire les interfaces virtuelles, les commutateurs virtuels, les commutateurs physiques et les routeurs pour prendre en charge la même taille des paquets MTU. |
VCF-NET-REQD-CFG-006 |
Assurez-vous que la latence entre les instances de VMware Cloud Foundation connectées dans une fédération NSX est inférieure à 500 ms. |
La fédération NSX nécessite une latence inférieure à 500 ms. |
Aucun. |
VCF-NET-REQD-CFG-007 |
Fournissez une connexion routée entre les clusters NSX Manager dans les instances de VMware Cloud Foundation connectées dans une fédération NSX. |
La configuration de la fédération NSX nécessite une connectivité entre les instances du gestionnaire global NSX, les instances du gestionnaire local NSX et les clusters NSX Edge. |
Vous devez attribuer des adresses IP routables uniques pour chaque domaine de pannes. |
ID de recommandation |
Recommandation en matière de conception |
Justification |
Implication |
---|---|---|---|
VCF-NET-RCMD-CFG-001 |
Utilisez deux commutateurs ToR pour chaque rack. |
Prend en charge l'utilisation de deux liaisons 10 GbE (au moins 25 GbE recommandés) vers chaque serveur, fournit une redondance et réduit la complexité globale de la conception. |
Nécessite deux commutateurs ToR par rack, ce qui peut augmenter les coûts. |
VCF-NET-RCMD-CFG-002 |
Mettez en œuvre l'architecture réseau physique suivante :
|
|
|
VCF-NET-RCMD-CFG-003 |
Utilisez un réseau physique configuré pour la contiguïté de routage BGP. |
|
Nécessite une configuration BGP dans le réseau physique. |
VCF-NET-RCMD-CFG-004 |
Attribuez des configurations d'adresses IP persistantes pour les points de terminaison de tunnel (TEP) NSX qui utilisent l'adressage des pools d'adresses IP dynamiques plutôt que celui des pools d'adresses IP dynamiques. |
|
L'ajout d'hôtes supplémentaires au cluster peut nécessiter l'augmentation des pools d'adresses IP statiques. |
VCF-NET-RCMD-CFG-005 |
Configurez les ports de jonction connectés aux cartes réseau ESXi comme PortFast de jonction. |
Réduit le délai de transition des ports vers l'état de transfert. |
Bien que cette conception n'utilise pas le protocole STP, celui-ci est généralement configuré par défaut sur les commutateurs. |
VCF-NET-RCMD-CFG-006 |
Configurez VRRP, HSRP ou une autre méthode de disponibilité de passerelle de couche 3 pour ces réseaux.
|
Garantit que les VLAN étendus entre les zones de disponibilité sont connectés à une passerelle hautement disponible. Sinon, une panne dans la passerelle de couche 3 entraîne une interruption du trafic dans la configuration SDN. |
Nécessite la configuration d'une technologie haute disponibilité pour les passerelles de couche 3 dans le centre de données. |
VCF-NET-RCMD-CFG-007 |
Utilisez des VLAN distincts pour les fonctions réseau de chaque cluster. |
Réduit la taille du domaine de diffusion de couche 2 à un cluster vSphere unique. |
Augmente le nombre global de VLAN requis pour une instance de VMware Cloud Foundation. |
ID de recommandation |
Recommandation en matière de conception |
Justification |
Implication |
---|---|---|---|
VCF-NET-DES-RCMD-CFG-001 |
Mettez en œuvre l'architecture réseau physique suivante :
|
Prend en charge les conditions requises pour la bande passante élevée et les paquets par seconde pour les déploiements à grande échelle. |
Nécessite des commutateurs réseau de 100 GbE. |
ID de recommandation |
Recommandation en matière de conception |
Justification |
Implication |
---|---|---|---|
VCF-NET-RCMD-CFG-008 |
Fournissez le routage BGP entre toutes les instances de VMware Cloud Foundation connectées dans une configuration de la fédération NSX. |
BGP est le protocole de routage pris en charge pour la fédération NSX. |
Aucun. |
VCF-NET-RCMD-CFG-009 |
Assurez-vous que la latence entre les instances de VMware Cloud Foundation connectées dans une fédération NSX est inférieure à 150 ms pour la mobilité des charges de travail. |
Une latence inférieure à 150 ms est requise pour les fonctionnalités suivantes :
|
Aucun. |