Le composant SD-WAN Gateway s'exécute sur un hyperviseur standard (KVM ou VMware ESXi).
Configuration minimale requise pour le serveur
Pour exécuter l'hyperviseur :
- CPU : Intel XEON (10 cœurs au minimum pour exécuter une seule VM de passerelle à 8 cœurs) avec une vitesse d'horloge minimale de 2,0 GHz est requis pour obtenir des performances maximales.
- Les fonctions de planification du réseau vmxnet3 ESXi doivent disposer de 2 cœurs réservés par machine virtuelle (VM) de passerelle, quel que soit le nombre de cœurs attribués à la passerelle.
- Exemple : supposons qu'un serveur de 24 cœurs exécute ESXi+vmxnet3. Vous pouvez déployer 2 passerelles (8 cœurs). Cela signifie que 2 passerelles multipliées par 8 cœurs nécessitent 16 cœurs réservés pour l'application des passerelles et laissent 8 cœurs libres. À l'aide de la formule ci-dessus, le système ESXi/vmxnet3 nécessite 4 cœurs supplémentaires (deux cœurs pour chacune des deux passerelles déployées) afin de prendre en charge ces deux passerelles s'exécutant à une échelle de performances maximale. Cela représente un total de 20 cœurs requis pour exécuter 2 passerelles sur un système à 24 cœurs.
Note : Lors de l'utilisation de SR-IOV, la fonction de planification réseau est déchargée sur la pNIC pour obtenir de meilleures performances. Toutefois, l'hyperviseur doit toujours exécuter d'autres fonctions de planification, telles que la gestion de l'allocation du CPU, de la mémoire et de NUMA. Il est nécessaire de toujours conserver deux cœurs libres pour l'utilisation de l'hyperviseur.
- Exemple : supposons qu'un serveur de 24 cœurs exécute ESXi+vmxnet3. Vous pouvez déployer 2 passerelles (8 cœurs). Cela signifie que 2 passerelles multipliées par 8 cœurs nécessitent 16 cœurs réservés pour l'application des passerelles et laissent 8 cœurs libres. À l'aide de la formule ci-dessus, le système ESXi/vmxnet3 nécessite 4 cœurs supplémentaires (deux cœurs pour chacune des deux passerelles déployées) afin de prendre en charge ces deux passerelles s'exécutant à une échelle de performances maximale. Cela représente un total de 20 cœurs requis pour exécuter 2 passerelles sur un système à 24 cœurs.
- Les fonctions de planification du réseau vmxnet3 ESXi doivent disposer de 2 cœurs réservés par machine virtuelle (VM) de passerelle, quel que soit le nombre de cœurs attribués à la passerelle.
- Le CPU doit prendre en charge et activer les jeux d'instructions suivants : AES-NI, SSSE3, SSE4, RDTSC, RDSEED, RDRAND ou AVX/AVX2/AVX512.
- Au moins 4 Go de RAM libre doivent être disponibles pour le système serveur, à l'exception de la mémoire attribuée aux VM PGW . Une VM de passerelle requiert 16 Go de RAM ou 32 Go de RAM si l'authentification par certificat est activée.
- Volume de disque persistant basé sur un disque magnétique ou sur un disque SSD de 150 Go minimum (une VM de passerelle requiert un volume de disque de 64 Go ou 96 Go, si l'authentification par certificat est activée).
- Performances IOPS minimales requises : 200 IOPS.
- Au moins 1 port d'interface réseau 10Ge et 2 ports sont requis lors de l'activation de l'interface de transfert des partenaires de passerelle (les cartes réseau 1Ge sont prises en charge, mais affecteront les performances). Les cartes réseau physiques prenant en charge SR-IOV sont les chipsets Intel 82599/82599ES et Intel X710/XL710. (Reportez-vous au guide « Activer SR-IOV »).
Note : SR-IOV ne prend pas en charge l'association de cartes réseau. Pour les liens montants redondants, utilisez le commutateur virtuel ESXi.
- VMware SD-WAN Gateway est une charge de travail intensive du plan de données qui nécessite des cycles de CPU dédiés pour garantir des performances et une fiabilité optimales. Le respect de ces paramètres définis est requis pour s'assurer que la VM de passerelle ne surcharge pas le matériel sous-jacent ni n'entraîne des actions qui peuvent déstabiliser le service de passerelle (par exemple, le dépassement de la limite NUMA, le surabonnement de la mémoire et/ou du vCPU).
- Vérifiez que la VM de passerelle partenaire SD-WAN et les ressources utilisées pour la prendre en charge sont adaptées à un nœud NUMA.
- Dans la mesure du possible, essayez de parvenir à un alignement vertical complet entre les interfaces réseau, la mémoire, les CPU physiques et les machines virtuelles sur un nœud NUMA unique.
-
Note : Configurez les paramètres BIOS de l'hôte comme suit :
- Hyper-threading - désactivé
- Économies d'énergie - Désactivé
- Turbo CPU - Activé
- AES-NI - Activé
- Entrelacement de nœud NUMA - Désactivé
Exemples de spécifications de serveur
Chipset de carte réseau | Matériel | Spécification |
---|---|---|
Intel 82599/82599ES | HP DL380G9 | http://www.hp.com/hpinfo/newsroom/press_kits/2014/ComputeEra/HP_ProLiantDL380_DataSheet.pdf |
Intel X710/XL710 | Dell PowerEdge R640 | https://www.dell.com/en-us/work/shop/povw/poweredge-r640
|
Intel X710/XL710 | Supermicro SYS-6018U-TRTP+ | https://www.supermicro.com/en/products/system/1U/6018/SYS-6018U-TRTP_.cfm
|
Spécifications de carte réseau requises pour la prise en charge de SR-IOV
Fabricant du matériel | Version du microprogramme | Pilote d'hôte pour Ubuntu 18.04 | Pilote d'hôte pour ESXi 6.7 |
---|---|---|---|
Contrôleur Ethernet Intel Corporation double port XL710 pour 40 Go E QSFP+ | 7.0 | 2.10.19.30 | 1.8.6 et 1.10.9.0 |
Contrôleur Ethernet Intel Corporation double port X710 pour 10 Go E SFP+ | 7.0 | 2.10.19.30 | 1.8.6 et 1.10.9.0 |
Contrôleur Ethernet Intel Corporation quatre port X710 pour 10 Go E SFP+ | 7.0 | 2.10.19.30 | 1.8.6 et 1.10.9.0 |
Carte Dell rNDC X710/350 | Nvm 7.10 et FW 19.0.12 | 2.10.19.30 | 1.8.6 et 1.10.9.0 |
Versions d'hyperviseur prises en charge
Hyperviseur | Versions prises en charge |
---|---|
VMware |
|
KVM |
|
Spécification de machine virtuelle (VM) SD-WAN Gateway
- Si vous utilisez VMware ESXi :
- La sensibilité de latence doit être définie sur « Élevée ».
- Procédure (ajuster la sensibilité de la latence)
- Accédez à la machine virtuelle dans vSphere Client.
- Pour trouver une machine virtuelle, sélectionnez un centre de données, un dossier, un cluster, un pool de ressources ou un hôte.
- Cliquez sur l'onglet VM.
- Cliquez avec le bouton droit sur la machine virtuelle, puis cliquez sur Modifier les paramètres (Edit Settings).
- Cliquez sur Options de VM (VM Options) et sur Avancé (Advanced).
- Sélectionnez un paramètre dans le menu déroulant Sensibilité de la latence (Latency Sensitivity).
- Cliquez sur OK.
- Accédez à la machine virtuelle dans vSphere Client.
- Réservation de CPU définie sur 100 %.
- Parts de CPU définies sur Élevé (High).
- La limite de CPU doit être définie sur Illimité (Unlimited).
- 8 vCPU (4 vCPU sont pris en charge, mais des performances inférieures sont attendues).
Important : Tous les cœurs de vCPU doivent être mappés au même socket avec le paramètre Cœurs par socket (Cores per Socket) défini sur 8 avec 8 vCPU ou sur 4 lorsque 4 vCPU sont utilisés.Note : L'hyper-threading doit être désactivé pour obtenir des performances maximales.
- Procédure d'allocation des ressources de CPU :
- Cliquez sur Machines virtuelles (Virtual Machines) dans l'inventaire de VMware Host Client.
- Cliquez avec le bouton droit sur une machine virtuelle dans la liste et sélectionnez les paramètres de Modifier (Edit) dans le menu contextuel.
- Dans l'onglet Matériel virtuel (Virtual Hardware), développez le CPU et allouez de la capacité de CPU à la machine virtuelle.
Option Description Réservation (Reservation) Allocation de CPU garantie pour cette machine virtuelle. Limite (Limit) Limite supérieure d'allocation du CPU de cette machine virtuelle. Sélectionnez Illimité (Unlimited) pour ne spécifier aucune limite supérieure. Parts (Shares) Parts de CPU de cette machine virtuelle par rapport au total du parent. Les machines virtuelles sœurs partagent des ressources en fonction de leurs valeurs de parts relatives limitées par la réservation et la limite. Sélectionnez Faible (Low), Normale (Normal) ou Élevée (High), ce qui spécifie des valeurs de parts, respectivement dans un rapport 1:2:4. Sélectionnez Personnalisée (Custom) pour attribuer à chaque machine virtuelle un nombre spécifique de parts qui expriment une pondération proportionnelle.
- Procédure (ajuster la sensibilité de la latence)
- L'affinité de CPU doit être activée. Suivez les étapes ci-dessous.
- Dans vSphere Web Client, accédez à l'onglet Paramètres de VM (VM Settings).
- Choisissez l'onglet Options et cliquez sur Avancés (Advanced) Général (General) >Paramètres de configuration (Configuration Parameters).
- Ajoutez des entrées pour numa.nodeAffinity=0, 1, ..., où 0 et 1 sont les numéros de socket de processeur.
- La vNIC doit être de type « vmxnet3 » (ou SR-IOV. Pour plus d'informations sur la prise en charge, reportez-vous à la section SR-IOV).
- Capacité minimale de l'une des vNIC suivantes :
- La première vNIC est l'interface publique (extérieure), qui doit être une interface sans balise.
- La deuxième vNIC est facultative et fait office d'interface privée (à l'intérieur) qui peut prendre en charge le balisage VLAN dot1q et Q-in-Q. Cette interface fait généralement face au routeur PE ou au commutateur L3.
- vNIC facultative (si une interface de gestion/OAM distincte est requise).
- La réservation de la mémoire est définie sur « maximum ».
- 16 Go de mémoire (une mémoire RAM de 32 Go est requise lors de l'activation de l'authentification par certificat).
- 64 Go de disque virtuel (un disque de 96 Go est requis lors de l'activation de l'authentification par certificat).
Note : VMware utilise les paramètres définis ci-dessus pour obtenir des numéros d'échelle et de performances. Les paramètres qui ne correspondent pas aux conditions requises ci-dessus ne sont pas testés par VMware et peuvent produire des performances et des résultats d'échelle imprévisibles
- La sensibilité de latence doit être définie sur « Élevée ».
- Si vous utilisez KVM :
- La vNIC doit être de type « pont Linux ». (SR-IOV est requis pour obtenir des performances élevées. Pour plus d'informations sur la prise en charge, reportez-vous à la section SR-IOV).
- 8 vCPU (4 vCPU sont pris en charge, mais des performances inférieures sont attendues).
Important : Tous les cœurs de vCPU doivent être mappés au même socket avec le paramètre Cœurs par socket (Cores per Socket) défini sur 8 avec 8 vCPU ou sur 4 lorsque 4 vCPU sont utilisés.Note : L'hyper-threading doit être désactivé pour obtenir des performances maximales.
- 16 Go de mémoire (une mémoire RAM de 32 Go est requise lors de l'activation de l'authentification par certificat)
- Capacité minimale de l'une des vNIC suivantes :
- La première vNIC est l'interface publique (extérieure), qui doit être une interface sans balise.
- La deuxième vNIC est facultative et fait office d'interface privée (à l'intérieur) qui peut prendre en charge le balisage VLAN dot1q et Q-in-Q. Cette interface fait généralement face au routeur PE ou au commutateur L3.
- vNIC facultative (si une interface de gestion/OAM distincte est requise).
- 64 Go de disque virtuel (un disque de 96 Go est requis lors de l'activation de l'authentification par certificat).
Configuration requise pour le pare-feu/dispositif NAT
- Le pare-feu doit autoriser le trafic sortant du composant SD-WAN Gateway vers TCP/443 (pour la communication avec SASE Orchestrator).
- Le pare-feu doit autoriser le trafic entrant d'Internet vers UDP/2426 (VCMP), UDP/4500 et UDP/500. Si le dispositif NAT n'est pas utilisé, le pare-feu doit également autoriser IP/50 (ESP).
- Si le dispositif NAT est utilisé, les ports ci-dessus doivent être traduits en une adresse IP accessible en externe. Les traductions NAT 1:1 et de ports sont prises en charge.
Référentiel Git avec modèles et échantillons
Le référentiel Git suivant contient des modèles et des exemples.
git clone https://gitlab.eng.vmware.com/velocloud/velocloud.src.git
Utilisation de DPDK sur les Passerelles SD-WAN Gateway
Pour améliorer les performances de débit de paquets, les Passerelles SD-WAN Gateway tirent parti de la technologie de kit de développement de plan de données (DPDK, Data Plane Development Kit). DPDK est un ensemble de bibliothèques de plan de données et de pilotes fournis par Intel pour le déchargement du traitement des paquets TCP du noyau du système d'exploitation vers les processus s'exécutant dans l'espace utilisateur, ce qui entraîne un débit de paquets plus élevé. Pour plus d'informations, reportez-vous l'adresse https://www.dpdk.org/.
Sur les passerelles hébergées par VMware et les passerelles partenaires, DPDK est utilisé sur les interfaces qui gèrent le trafic du plan de données et n'est pas utilisé sur les interfaces réservées pour le trafic du plan de gestion. Par exemple, sur une passerelle hébergée par VMware classique, eth0 est utilisé pour le trafic du plan de gestion et n'utilise pas DPDK. En revanche, eth1, eth2 et eth3 sont utilisés pour le trafic du plan de données et utilisent DPDK.