VMware Cloud Foundation utilise vSphere Distributed Switch pour la mise en réseau virtuelle.

Conception de la mise en réseau vSphere logique pour VMware Cloud Foundation

Lorsque vous concevez la mise en réseau vSphere, tenez compte de la configuration des commutateurs vSphere Distributed Switch, des groupes de ports distribués et des adaptateurs VMkernel dans l'environnement VMware Cloud Foundation.

Conception de vSphere Distributed Switch

Le cluster par défaut dans un domaine de charge de travail utilise un seul commutateur vSphere Distributed Switch avec une configuration pour les types de trafic système, l'association de cartes réseau et la taille de MTU.

VMware Cloud Foundation prend en charge le trafic de superposition NSX sur un seul commutateur vSphere Distributed Switch par cluster. Des commutateurs Distributed Switch supplémentaires sont pris en charge pour d'autres types de trafic.

Lorsque vous utilisez des ReadyNodes vSAN, vous devez définir le nombre de commutateurs vSphere Distributed Switch au moment du déploiement du domaine de charge de travail. Vous ne pouvez pas ajouter d'autres commutateurs vSphere Distributed Switch après le déploiement.

Tableau 1. Options de configuration de vSphere Distributed Switch pour VMware Cloud Foundation

Configuration de vSphere Distributed Switch

Options d'un domaine de gestion

Options d'un domaine de charge de travail VI

Avantages

Inconvénients

Commutateur vSphere Distributed Switch unique pour les hôtes disposant de deux cartes réseau physiques

  • Un seul commutateur vSphere Distributed Switch pour chaque cluster avec l'ensemble du trafic utilisant deux liaisons montantes.

  • Un seul commutateur vSphere Distributed Switch pour chaque cluster avec l'ensemble du trafic utilisant deux liaisons montantes.

Nécessite le nombre minimal de cartes réseau physiques et de ports de commutateur.

L'ensemble du trafic partage les deux mêmes liaisons montantes.

Commutateur vSphere Distributed Switch unique pour les hôtes disposant de quatre à six cartes réseau physiques

  • Un seul commutateur vSphere Distributed Switch pour chaque cluster avec quatre liaisons montantes en utilisant les profils prédéfinis dans le classeur des paramètres de déploiement de VMware Cloud Builder pour déployer le cluster de gestion par défaut.

  • Un seul commutateur vSphere Distributed Switch pour chaque cluster avec quatre ou six liaisons montantes à l'aide de l'API VMware Cloud Builder pour déployer le cluster de gestion par défaut.

  • Un seul commutateur vSphere Distributed Switch pour chaque cluster avec quatre ou six liaisons montantes.

  • Prend en charge la séparation du trafic entre différentes liaisons montantes.

  • Vous devez fournir des cartes réseau physiques et des ports de commutateur supplémentaires.

Plusieurs commutateurs vSphere Distributed Switch

  • Deux commutateurs vSphere Distributed Switch au maximum en utilisant les profils prédéfinis dans le Classeur des paramètres de déploiement de VMware Cloud Builder pour déployer le cluster de gestion par défaut.

  • 16 commutateurs vSphere Distributed Switch au maximum par cluster. Utilisez l'API VMware Cloud Builder pour déployer le cluster de gestion par défaut à l'aide de combinaisons de commutateurs vSphere Distributed Switch et de configurations de cartes réseau physiques qui ne sont pas disponibles comme profils prédéfinis dans le Classeur des paramètres de déploiement

  • Vous ne pouvez utiliser qu'un seul des commutateurs vSphere Distributed Switch pour le trafic de superposition NSX.

  • 16 commutateurs vSphere Distributed Switch au maximum par cluster.

  • Vous ne pouvez utiliser qu'un seul des commutateurs vSphere Distributed Switch pour le trafic de superposition NSX.

  • Prend en charge la séparation du trafic pour différentes liaisons montantes ou différents commutateurs vSphere Distributed Switch.

  • Prend en charge la séparation du trafic sur différentes infrastructures de réseaux physiques.

  • Vous devez fournir des cartes réseau physiques et des ports de commutateur supplémentaires.

  • Plus complexe, avec un temps système de gestion et de configuration supplémentaire.

Conception d'un groupe de ports distribués

VMware Cloud Foundation nécessite plusieurs groupes de ports sur vSphere Distributed Switch pour un domaine de charge de travail. Les adaptateurs VMkernel des TEP de l'hôte NSX sont connectés au réseau superposé de l'hôte, mais ne nécessitent aucun groupe de ports dédiés sur le commutateur Distributed Switch. L'adaptateur réseau VMkernel pour le TEP de l'hôte NSX est automatiquement créé lorsque VMware Cloud Foundation configure l'hôte ESXi comme nœud de transport NSX.
Tableau 2. Configuration du groupe de ports distribués pour VMware Cloud Foundation

Fonction

Stratégie d'association

Configuration

  • Gestion des VM

  • Gestion des hôtes

  • vSphere vMotion
  • vSAN

  • NFS (non applicable au cluster par défaut du domaine de gestion)

Route basée sur la charge NIC physique.

Recommandé.

  • Détection de basculement : état de la liaison uniquement

  • Restauration automatique : oui

    Se produit uniquement lors de la saturation de la liaison montante active.

  • Notifier les commutateurs : oui

Recommandé.

  • Superposition de l'hôte

Sans objet.

Sans objet.

  • Liaisons montantes et superposition du dispositif Edge

Utilisez l'ordre de basculement explicite.

Requis.

  • RTEP du dispositif Edge (fédération NSX uniquement)

Sans objet.

Sans objet.

Conception de l'adaptateur réseau VMkernel

La couche de mise en réseau VMkernel fournit la connectivité aux hôtes et gère le trafic système pour la gestion, vSphere vMotion, vSphere HA, vSAN, NFS, etc.

Tableau 3. Adaptateurs VMkernel pour les hôtes du domaine de charge de travail

Service d'adaptateur VMkernel

Groupe de ports connectés

Services activés

Taille de MTU recommandée (octets)

Gestion

Groupe de ports de gestion

Trafic de gestion

1 500 (par défaut)

vMotion

Groupe de ports vMotion

Trafic vMotion

9 000

vSAN

Groupe de ports vSAN

vSAN

9 000

NFS

Groupe de ports NFS

NFS

9 000

TEP de l'hôte

Sans objet

Sans objet

9 000

Modes de chemin de données vSphere Distributed Switch

Le commutateur vSphere Distributed Switch prend en charge trois modes de chemin de données : Chemin de données standard, Interruption de chemin de données amélioré et Chemin de données amélioré. Le chemin de données est un mode de pile de mise en réseau configuré sur un commutateur vSphere Distributed Switch lorsqu'un profil de nœud de transport NSX est appliqué lors de l'installation de NSX sur un cluster ESXi. Chaque mode de chemin de données possède des caractéristiques de performances adaptées à l'exécution d'une charge de travail spécifique sur le cluster. Le tableau suivant fournit des détails sur les différents modes disponibles dans VMware Cloud Foundation, ainsi que les types de charge de travail de cluster recommandés pour chaque mode.

Tableau 4. Modes de chemin de données pour VMware Cloud Foundation

Nom du mode de chemin de données

Description

Cas d'utilisation

Configurations requises

Standard

  • Le chemin de données standard est installé par défaut. Il est conçu pour traiter les applications avec des flux volumineux.

  • L'utilisation du CPU dans le chemin de données standard est à la demande. Pour les applications présentant des conditions requises strictes pour le traitement de paquets, telles que NSX Edge, le chemin de données standard nécessite un réglage important.

Clusters ou domaines de charge de travail de calcul

La combinaison pilote-microprogramme doit être répertoriée dans le Guide de compatibilité VMware pour les périphériques d'E/S et doit prendre en charge les fonctionnalités suivantes :

  • Déchargement Geneve

  • Filtres Rx/Tx Geneve ou RSS

Interruption du chemin de données amélioré

(Appelé Chemin de données amélioré - Standard dans l'interface utilisateur de NSX Manager)

  • L'interruption du chemin de données amélioré est un chemin de données orienté performances qui combine la flexibilité de l'utilisation du CPU à la demande du chemin de données standard existant et des fonctionnalités semblables à DPDK (Data Plane Development Kit) pour les performances.

  • Ce mode augmente et réduit automatiquement l'utilisation des cœurs pour le traitement des paquets, en fonction des besoins.

  • L'interruption du chemin de données amélioré présente des caractéristiques de performances éprouvées, en particulier pour les flux plus petits qui se concentrent principalement sur le traitement des paquets tels que NSX Edge, sans réglage supplémentaire requis.

Clusters vSphere exécutant des nœuds NSX Edge

La combinaison pilote-microprogramme doit être répertoriée dans le Guide de compatibilité VMware pour les périphériques d'E/S avec Chemin de données amélioré - Prise en charge du mode d'interruption

Chemin de données amélioré

(Appelé Chemin de données amélioré - Performances dans l'interface utilisateur de NSX Manager)

  • Le mode Chemin de données amélioré est un chemin de données orienté performances qui exploite des fonctionnalités de performance de type DPDK, notamment des cœurs de CPU dédiés pour le traitement des chemins de données de mise en réseau.

  • Ce mode est mieux adapté aux charges de travail pour lesquelles les modèles de trafic et les conditions requises pour les performances sont bien définis.

  • Ce mode est fixe du point de vue de l'allocation de cœurs et n'augmente pas ou ne diminue pas automatiquement en fonction des besoins. Les cœurs attribués au chemin de données ne sont pas disponibles pour les charges de travail, même en l'absence de trafic réseau.

  • Il est possible de ne pas disposer de suffisamment de cœurs pour le traitement des paquets, sauf si les cœurs sont préattribués pour dimensionner avec précision la charge de travail.

Charges de travail de télécommunications ou NFV

La combinaison pilote-microprogramme doit être répertoriée dans le Guide de compatibilité VMware pour les périphériques d'E/S avec Chemin de données amélioré - Prise en charge du mode d'interrogation.

Conditions requises et recommandations pour la conception de mise en réseau vSphere pour VMware Cloud Foundation

Tenez compte des conditions requises et recommandations pour la mise en réseau vSphere dans VMware Cloud Foundation, telles que la configuration des groupes de ports distribués, la taille de la MTU, la liaison de port, la stratégie d'association et les partages réseau spécifiques au trafic.

Conditions requises pour la conception de mise en réseau vSphere pour VMware Cloud Foundation

Vous devez répondre aux conditions requises suivantes pour la conception de la mise en réseau vSphere pour VMware Cloud Foundation.

Tableau 5. Conditions requises pour la conception de la mise en réseau vSphere pour un cluster de domaine de charge de travail VI de calcul sur plusieurs racks pour VMware Cloud Foundation

ID de conditions requises

Conditions requises pour la conception

Justification

Implication

VCF-VDS-L3MR-REQD-CFG-001

Pour chaque rack, créez un groupe de ports sur le commutateur vSphere Distributed Switch du cluster pour les types de trafic suivants :

  • Gestion des hôtes

  • vSAN

  • vSphere vMotion

Requis pour l'utilisation de VLAN distincts par rack.

Aucun.

Recommandations en matière de conception de mise en réseau vSphere pour VMware Cloud Foundation

Dans votre conception de mise en réseau vSphere pour VMware Cloud Foundation, vous pouvez appliquer certaines meilleures pratiques pour vSphere Distributed Switch et les groupes de ports distribués.

Tableau 6. Recommandations en matière de conception de mise en réseau vSphere pour VMware Cloud Foundation

ID de recommandation

Recommandation en matière de conception

Justification

Implication

VCF-VDS-RCMD-CFG-001

Utilisez une seule instance de vSphere Distributed Switch par cluster.

  • Réduit la complexité de la conception du réseau.

Réduit le nombre de commutateurs vSphere Distributed Switch qui doivent être gérés par cluster.

VCF-VDS-RCMD-CFG-002

Ne partagez pas de commutateur vSphere Distributed Switch entre les clusters.

  • Active la gestion indépendante du cycle de vie des commutateurs vSphere Distributed Switch par cluster.

  • Réduit la taille du domaine de pannes.

Pour plusieurs clusters, gérez davantage de commutateurs vSphere Distributed Switch.

VCF-VDS-RCMD-CFG-003

Configurez la taille de MTU de vSphere Distributed Switch sur 9 000 pour les trames Jumbo.

  • Prend en charge la taille de MTU requise par les types de trafic système.

  • Améliore le débit du trafic.

Lors de l'ajustement de la taille des paquets MTU, vous devez également configurer l'intégralité du chemin réseau (ports VMkernel, commutateurs virtuels, commutateurs physiques et routeurs) pour prendre en charge la même taille des paquets MTU.

VCF-VDS-RCMD-DPG-001

Utilisez une liaison de port éphémère pour le groupe de ports de gestion de VM.

L'utilisation d'une liaison de port éphémère offre la possibilité de récupérer l'instance de vCenter Server qui gère le Distributed Switch.

Le réseau de gestion de VM n'est pas requis pour un cluster de calcul uniquement sur plusieurs racks dans un domaine de charge de travail VI.

Les autorisations et les contrôles au niveau des ports sont perdus lors des cycles d'alimentation et aucun contexte historique n'est enregistré.

VCF-VDS-RCMD-DPG-002

Utilisez la liaison de port statique pour tous les groupes de ports hors gestion.

La liaison statique garantit qu'une machine virtuelle se connecte au même port sur vSphere Distributed Switch. Cette configuration prend en charge les données historiques et la surveillance au niveau des ports.

Aucun.

VCF-VDS-RCMD-DPG-003

  • Utilisez l'algorithme d'association Route based on physical NIC load pour le groupe de ports de gestion de VM.

  • Le réseau de gestion de VM n'est pas requis pour un déploiement sur plusieurs racks L3 de calcul uniquement.

Réduit la complexité de la conception réseau, augmente la résilience et peut s'ajuster aux charges de travail fluctuantes.

Aucun.

VCF-VDS-RCMD-DPG-004

Utilisez l'algorithme d'association Route based on physical NIC load pour le groupe de ports de gestion ESXi.

Réduit la complexité de la conception réseau, augmente la résilience et peut s'ajuster aux charges de travail fluctuantes.

Aucun.

VCF-VDS-RCMD-DPG-005

Utilisez l'algorithme d'association Route based on physical NIC load pour le groupe de ports vSphere vMotion.

Réduit la complexité de la conception réseau, augmente la résilience et peut s'ajuster aux charges de travail fluctuantes.

Aucun.

VCF-VDS-RCMD-DPG-006

Utilisez l'algorithme d'association Route based on physical NIC load pour le groupe de ports vSAN.

Réduit la complexité de la conception réseau, augmente la résilience et peut s'ajuster aux charges de travail fluctuantes.

Aucun.

VCF-VDS-RCMD-NIO-001

Activez Network I/O Control sur le commutateur vSphere Distributed Switch du cluster de domaine de gestion.

N'activez pas Network I/O Control sur des clusters vSphere dédiés pour les nœuds NSX Edge.

Augmente la résilience et les performances du réseau.

En cas de configuration incorrecte, Network I/O Control peut avoir une incidence sur les performances du réseau pour les types de trafic critiques.

VCF-VDS-RCMD-NIO-002

Définissez la valeur de partage du trafic de gestion sur Normal.

En conservant le paramètre par défaut Normal, la priorité du le trafic de gestion est supérieure à celle de vSphere vMotion, mais inférieure à celle du trafic vSAN. Le trafic de gestion est important, car il garantit que les hôtes peuvent toujours être gérés pendant les périodes de conflit réseau.

Aucun.

VCF-VDS-RCMD-NIO-003

Définissez la valeur de partage du trafic vSphere vMotion sur Faible.

Pendant les périodes de conflit réseau, le trafic vSphere vMotion n'est pas aussi important que le trafic des machines virtuelles ou du stockage.

Pendant les périodes de conflit réseau, l'exécution de l'instance de vMotion prend plus de temps que d'habitude.

VCF-VDS-RCMD-NIO-004

Définissez la valeur de partage des machines virtuelles sur Élevé.

Les machines virtuelles sont la ressource la plus importante dans le SDDC. En conservant le paramètre par défaut Élevé, elles ont ainsi toujours accès aux ressources réseau requises.

Aucun.

VCF-VDS-RCMD-NIO-005

Définissez la valeur de partage du trafic vSAN sur Élevé.

Pendant les périodes de conflit réseau, le trafic vSAN a besoin d'une bande passante garantie pour prendre en charge les performances des machines virtuelles.

Aucun.

VCF-VDS-RCMD-NIO-006

Définissez la valeur de partage des autres types de trafic sur Faible.

Par défaut, VMware Cloud Foundation n'utilise pas d'autres types de trafic, tels que le trafic vSphere FT. Par conséquent, ces types de trafic peuvent être définis sur la priorité la plus faible.

Aucun.