VMware Cloud Foundation verwendet vSphere Distributed Switch für virtuelle Netzwerke.
Logisches vSphere-Netzwerkdesign für VMware Cloud Foundation
Berücksichtigen Sie beim Entwurf des vSphere-Netzwerks die Konfiguration der vSphere Distributed Switches, verteilten Portgruppen und VMkernel-Adapter in der VMware Cloud Foundation-Umgebung.
vSphere Distributed Switch-Design
Der Standardcluster in einer Arbeitslastdomäne verwendet einen einzelnen vSphere Distributed Switch mit einer Konfiguration für die Datenverkehrsarten des Systems, Systemdatenverkehrstypen, NIC-Gruppierung und MTU-Größe.
VMware Cloud Foundation unterstützt NSX-Overlay-Datenverkehr über einen einzelnen vSphere Distributed Switch pro Cluster. Zusätzliche Distributed Switches werden für andere Datenverkehrstypen unterstützt.
Bei Verwendung von vSAN ReadyNodes müssen Sie die Anzahl der vSphere Distributed Switches zur Bereitstellungszeit der Arbeitslastdomäne definieren. Nach der Bereitstellung können Sie keine weiteren vSphere Distributed Switches mehr hinzufügen.
vSphere Distributed Switch-Konfiguration |
Optionen der Verwaltungsdomänen |
Optionen der VI-Arbeitslastdomäne |
Vorteile |
Nachteile |
---|---|---|---|---|
Einzelner vSphere Distributed Switch für Hosts mit zwei physischen Netzwerkkarten |
|
|
Erfordert eine Mindestanzahl an physischen Netzwerkkarten und Switch-Ports. |
Für den gesamten Datenverkehr werden dieselben beiden Uplinks verwendet. |
Einzelner vSphere Distributed Switch für Hosts mit vier oder sechs physischen Netzwerkkarten |
|
|
|
|
Mehrere vSphere Distributed Switches |
|
|
|
|
Design der verteilten Portgruppe
Funktion |
Teaming-Richtlinie |
Konfiguration |
---|---|---|
|
Anhand der physischen Netzwerkkartenauslastung routen. |
Empfohlen. |
|
Empfohlen. |
|
|
Nicht zutreffend. |
Nicht zutreffend. |
|
Explizite Failover-Reihenfolge verwenden. |
Erforderlich. |
|
Nicht zutreffend. |
Nicht zutreffend. |
Design des VMkernel-Netzwerkadapters
Die VMkernel-Netzwerkschicht bietet Konnektivität für Hosts und verarbeitet den Systemdatenverkehr für Verwaltung, vSphere vMotion, vSphere HA, vSAN, NFS usw.
VMkernel-Adapterdienst |
Verbundene Portgruppe |
Aktivierte Dienste |
Empfohlene MTU-Größe (Byte) |
---|---|---|---|
Management |
Verwaltungsportgruppe |
Verwaltungsdatenverkehr |
1500 (Standard) |
vMotion |
vMotion-Portgruppe |
vMotion-Datenverkehr |
9000 |
vSAN |
vSAN-Portgruppe |
vSAN |
9000 |
NFS |
NFS-Portgruppe |
NFS |
9000 |
Host-TEPs |
Nicht anwendbar |
Nicht anwendbar |
9000 |
Datenpfadmodi in vSphere Distributed Switch
vSphere Distributed Switch unterstützt drei Datenpfadmodi: „Standarddatenpfad“, „Erweiterter Datenpfad-Interrupt“ und „Erweiterter Datenpfad“. Beim Modus „Datenpfad“ handelt es sich um einen Netzwerk-Stack-Modus, der auf einem vSphere Distributed Switch konfiguriert wird, wenn während der Installation von NSX in einem ESXi-Cluster ein NSX-Transportknotenprofil angewendet wird. Jeder Datenpfadmodus weist Leistungsmerkmale auf, die für eine bestimmte Arbeitslast geeignet sind, die im Cluster ausgeführt wird. Die folgende Tabelle enthält Details zu den verschiedenen in VMware Cloud Foundation verfügbaren Modi sowie empfohlene Typen von Cluster-Arbeitslasten für jeden Modus.
Name des Datenpfadmodus |
Beschreibung |
Anwendungsfälle |
Anforderungen |
---|---|---|---|
Standard |
|
Arbeitslastdomänen oder -cluster berechnen |
Die Kombination aus Treiber und Firmware muss im VMware-Kompatibilitätshandbuch für E/A-Geräte enthalten sein und die folgenden Funktionen unterstützen:
|
Erweiterter Datenpfad-Interrupt (Wird als Erweiterter Datenpfad – Standard auf der NSX Manager-Benutzeroberfläche bezeichnet) |
|
vSphere-Cluster, auf denen NSX Edge-Knoten ausgeführt werden |
Die Kombination aus Treiber und Firmware muss im VMware-Kompatibilitätshandbuch für E/A-Geräte mit „Erweiterter Datenpfad – Unterstützung für Interrupt-Modus“ enthalten sein |
Erweiterter Datenpfad (Wird als Erweiterter Datenpfad – Leistung auf der NSX Manager-Benutzeroberfläche bezeichnet) |
|
Telekommunikations- oder NFV-Arbeitslasten |
Die Kombination aus Treiber und Firmware muss im VMware-Kompatibilitätshandbuch für E/A-Geräte mit „Erweiterter Datenpfad – Unterstützung für Abfragemodus“ enthalten sein. |
Anforderungen und Empfehlungen für das vSphere-Netzwerkdesign für VMware Cloud Foundation
Überprüfen Sie die Anforderungen und Empfehlungen für vSphere-Netzwerke in VMware Cloud Foundation, wie z. B. Konfiguration einer verteilten Portgruppe, MTU-Größe, Port-Bindung, Teaming-Richtlinie und datenverkehrsspezifische Netzwerkfreigaben.
Anforderungen an das vSphere-Netzwerkdesign für VMware Cloud Foundation
Sie müssen die folgenden Designanforderungen an Ihr vSphere-Netzwerkdesign für VMware Cloud Foundation erfüllen.
Anforderungs-ID |
Designanforderung |
Begründung |
Auswirkung |
---|---|---|---|
VCF-VDS-L3MR-REQD-CFG-001 |
Erstellen Sie für jedes Rack im Cluster eine Portgruppe auf dem vSphere Distributed Switch für folgende Datenverkehrstypen:
|
Erforderlich für die Verwendung separater VLANs pro Rack. |
Keine. |
Empfehlungen für das vSphere-Netzwerkdesign für VMware Cloud Foundation
In Ihrem vSphere-Netzwerkdesign für VMware Cloud Foundation können Sie bestimmte Best Practices für vSphere Distributed Switch und verteilte Portgruppen anwenden.
Empfehlungs-ID |
Designempfehlung |
Begründung |
Auswirkung |
---|---|---|---|
VCF-VDS-RCMD-CFG-001 |
Verwenden Sie einen einzelnen vSphere Distributed Switch pro Cluster. |
|
Verringert die Anzahl der vSphere Distributed Switches, die pro Cluster verwaltet werden müssen. |
VCF-VDS-RCMD-CFG-002 |
Geben Sie einen vSphere Distributed Switch nicht für mehrere Cluster frei. |
|
Für mehrere Cluster müssen mehrere vSphere Distributed Switches verwaltet werden. |
VCF-VDS-RCMD-CFG-003 |
Konfigurieren Sie die MTU-Größe des vSphere Distributed Switch auf 9000 für Jumbo-Frames. |
|
Beim Anpassen der MTU-Paketgröße müssen Sie auch den gesamten Netzwerkpfad (VMkernel-Ports, virtuelle Switches, physische Switches und Router) so konfigurieren, dass er dieselbe MTU-Paketgröße unterstützt. |
VCF-VDS-RCMD-DPG-001 |
Verwenden Sie die flüchtige Port-Bindung für die Verwaltungsportgruppe der VM. |
Wird die flüchtige Port-Bindung verwendet, kann die vCenter Server-Instanz wiederhergestellt werden, die den Distributed Switch verwaltet. Das VM-Verwaltungsnetzwerk ist für einen reinen Computing-Cluster mit mehreren Racks in einer VI-Arbeitslastdomäne nicht erforderlich. |
Berechtigungen und Steuerelemente auf Portebene gehen während des Ein-/Ausschaltzyklus verloren, und es wird kein Verlaufskontext gespeichert. |
VCF-VDS-RCMD-DPG-002 |
Verwenden Sie die statische Port-Bindung für alle Nicht-Verwaltungsportgruppen. |
Die statische Bindung stellt sicher, dass eine virtuelle Maschine eine Verbindung mit demselben Port auf dem vSphere Distributed Switch herstellt. Diese Konfiguration bietet Unterstützung für Verlaufsdaten sowie für die Überwachung auf Portebene. |
Keine. |
VCF-VDS-RCMD-DPG-003 |
|
Reduziert die Komplexität des Netzwerkdesigns, erhöht die Ausfallsicherheit und kann sich an fluktuierende Arbeitslasten anpassen. |
Keine. |
VCF-VDS-RCMD-DPG-004 |
Verwenden Sie den Teaming-Algorithmus |
Reduziert die Komplexität des Netzwerkdesigns, erhöht die Ausfallsicherheit und kann sich an fluktuierende Arbeitslasten anpassen. |
Keine. |
VCF-VDS-RCMD-DPG-005 |
Verwenden Sie den Teaming-Algorithmus |
Reduziert die Komplexität des Netzwerkdesigns, erhöht die Ausfallsicherheit und kann sich an fluktuierende Arbeitslasten anpassen. |
Keine. |
VCF-VDS-RCMD-DPG-006 |
Verwenden Sie den Teaming-Algorithmus |
Reduziert die Komplexität des Netzwerkdesigns, erhöht die Ausfallsicherheit und kann sich an fluktuierende Arbeitslasten anpassen. |
Keine. |
VCF-VDS-RCMD-NIO-001 |
Aktivieren Sie Network I/O Control für den vSphere Distributed Switch des Verwaltungsdomänen-Clusters. Aktivieren Sie Network I/O Control in dedizierten vSphere-Clustern für NSX Edge-Knoten nicht. |
Erhöht die Stabilität und Leistung des Netzwerks. |
Bei falscher Konfiguration kann Network I/O Control die Netzwerkleistung für kritische Datenverkehrstypen beeinträchtigen. |
VCF-VDS-RCMD-NIO-002 |
Legen Sie den Anteilswert für den Verwaltungsdatenverkehr auf Normal fest. |
Wenn die Standardeinstellung „Normal“ beibehalten wird, wird der Verwaltungsdatenverkehr höher priorisiert als vSphere vMotion, aber niedriger als vSAN-Datenverkehr. Der Verwaltungsdatenverkehr ist wichtig, da er sicherstellt, dass die Hosts auch während eines Netzwerkkonflikts verwaltet werden können. |
Keine. |
VCF-VDS-RCMD-NIO-003 |
Legen Sie den Anteilswert für vSphere vMotion-Datenverkehr auf „Niedrig“ fest. |
Während eines Netzwerkkonflikts ist der vSphere vMotion-Datenverkehr nicht so wichtig wie VM- oder Speicherdatenverkehr. |
Während eines Netzwerkkonflikts wird für die Ausführung von vMotion mehr Zeit als gewöhnlich benötigt. |
VCF-VDS-RCMD-NIO-004 |
Legen Sie den Anteilswert für virtuelle Maschinen auf „Hoch“ fest. |
Virtuelle Maschinen sind das wichtigste Objekt im SDDC. Wenn Sie die Standardeinstellung „Hoch“ beibehalten, wird sichergestellt, dass sie immer Zugriff auf die benötigten Netzwerkressourcen haben. |
Keine. |
VCF-VDS-RCMD-NIO-005 |
Legen Sie den Anteilswert für vSAN-Datenverkehr auf „Hoch“ fest. |
Während eines Netzwerkkonflikts benötigt vSAN-Datenverkehr garantierte Bandbreite zur Unterstützung der VM-Leistung. |
Keine. |
VCF-VDS-RCMD-NIO-006 |
Legen Sie den Anteilswert für andere Datenverkehrstypen auf „Niedrig“ fest. |
Standardmäßig verwendet VMware Cloud Foundation keine anderen Datenverkehrstypen wie vSphere FT-Datenverkehr. Daher kann für diese Datenverkehrstypen die niedrigste Priorität festgelegt werden. |
Keine. |