VMware Cloud Foundation verwendet vSphere Distributed Switch für virtuelle Netzwerke.

Logisches vSphere-Netzwerkdesign für VMware Cloud Foundation

Berücksichtigen Sie beim Entwurf des vSphere-Netzwerks die Konfiguration der vSphere Distributed Switches, verteilten Portgruppen und VMkernel-Adapter in der VMware Cloud Foundation-Umgebung.

vSphere Distributed Switch-Design

Der Standardcluster in einer Arbeitslastdomäne verwendet einen einzelnen vSphere Distributed Switch mit einer Konfiguration für die Datenverkehrsarten des Systems, Systemdatenverkehrstypen, NIC-Gruppierung und MTU-Größe.

VMware Cloud Foundation unterstützt NSX-Datenverkehr über einen einzelnen vSphere Distributed Switch pro Cluster. Zusätzliche Distributed Switches werden für andere Datenverkehrstypen unterstützt.

Bei Verwendung von vSAN ReadyNodes müssen Sie die Anzahl der vSphere Distributed Switches zur Bereitstellungszeit der Arbeitslastdomäne definieren. Nach der Bereitstellung können Sie keine weiteren vSphere Distributed Switches mehr hinzufügen.

Tabelle 1. Konfigurationsoptionen für vSphere Distributed Switch für VMware Cloud Foundation

vSphere Distributed Switch-Konfiguration

Verwaltungsdomäne

VI-Arbeitslastdomäne

Vorteile

Nachteile

Einzelner vSphere Distributed Switch

  • Ein vSphere Distributed Switch für den gesamten Datenverkehr

  • vSphere Distributed Switch VDS für den gesamten Datenverkehr

Es sind weniger physische Netzwerkkarten und Switch-Ports erforderlich.

Für den gesamten Datenverkehr werden dieselben Uplinks verwendet.

Mehrere vSphere Distributed Switches

  • Maximal ein vSphere Distributed Switch für NSX-Datenverkehr und ein vSphere Distributed Switch für Nicht-NSX-Datenverkehr bei Verwendung der Arbeitsmappe mit den Bereitstellungsparametern in Cloud Builder.

  • Maximal 1 vSphere Distributed Switch für NSX-Datenverkehr und 2 vSphere Distributed Switches für Nicht-NSX-Datenverkehr bei Verwendung einer JSON-Datei in Cloud Builder.

  • Maximal ein vSphere Distributed Switch für NSX-Datenverkehr bei Verwendung der SDDC Manager-Benutzeroberfläche.

  • Maximal 15 zusätzliche vSphere Distributed Switches für Nicht-NSX-Datenverkehr bei Verwendung der SDDC Manager-API.

Bietet Unterstützung für die Trennung des Datenverkehrs über verschiedene Uplinks oder vSphere Distributed Switches hinweg.

Sie müssen zusätzliche physische Netzwerkkarten und Switch-Ports zur Verfügung stellen.

Hinweis:

Um andere physische Netzwerkkarten als vminc0 und vmnic1 als Uplinks für den ersten vSphere Distributed Switch zu verwenden, müssen Sie eine JSON-Datei für die Bereitstellung der Verwaltungsdomäne in Cloud Builder oder die SDDC Manager-API für die Bereitstellung der VI-Arbeitslastdomäne verwenden.

In einer Bereitstellung mit mehreren Verfügbarkeitszonen müssen Sie neue Netzwerke bereitstellen oder die vorhandenen Netzwerke erweitern.

Design der verteilten Portgruppe

VMware Cloud Foundation benötigt mehrere Portgruppen auf dem vSphere Distributed Switch für die Arbeitslastdomäne. Der VMkernel-Adapter für den Host-TEP ist mit dem Host-Overlay-VLAN verbunden, benötigt jedoch keine dedizierte Portgruppe auf dem Distributed Switch. Der VMkernel-Netzwerkadapter für Host-TEP wird automatisch erstellt, wenn Sie den ESXi-Host als Transportknoten konfigurieren.

Tabelle 2. Konfiguration der verteilten Portgruppe für VMware Cloud Foundation

Funktion

Teaming-Richtlinie

Anzahl der Ports der physischen Netzwerkkarte

MTU-Größe (Byte)

  • Management

  • vSphere vMotion

  • vSAN

Anhand der physischen Netzwerkkartenauslastung routen

  • Failover-Erkennung: Nur Verbindungsstatus

  • Failback: Ja

    Tritt nur bei Sättigung des aktiven Uplinks auf.

  • Switch-Benachrichtigung: Ja

  • Maximal vier Ports für die Verwaltungsdomäne bei Verwendung der Arbeitsmappe mit den Bereitstellungsparametern in Cloud Builder.

  • Maximal zwei Ports für eine VI-Arbeitslastdomäne bei Verwendung der SDDC Manager-Benutzeroberfläche.

  • Für alle Domänentypen maximal sechs Ports bei Verwendung der API.

  • Mindestens 1700

  • 9000 empfohlen

  • Host-Overlay

Nicht zutreffend.

  • Edge-Uplinks und Overlay

Explizite Failover-Reihenfolge verwenden.

  • Edge-RTEP (nur NSX-Verbund)

Nicht zutreffend.

Design des VMkernel-Netzwerkadapters

Die VMkernel-Netzwerkschicht bietet Konnektivität für Hosts und verarbeitet den Systemdatenverkehr für Verwaltung, vSphere vMotion, vSphere HA, vSAN usw.

Tabelle 3. Standard-VMkernel-Adapter für eine Arbeitslastdomäne pro Verfügbarkeitszone

VMkernel-Adapterdienst

Verbundene Portgruppe

Aktivierte Dienste

Empfohlene MTU-Größe (Byte)

Management

Verwaltungsportgruppe

Verwaltungsdatenverkehr

1500 (Standard)

vMotion

vMotion-Portgruppe

vMotion-Datenverkehr

9000

vSAN

vSAN-Portgruppe

vSAN

9000

Host-TEPs

Nicht anwendbar

Nicht anwendbar

9000

Empfehlungen für das vSphere-Netzwerkdesign für VMware Cloud Foundation

Überprüfen Sie die Empfehlungen für vSphere-Netzwerke in VMware Cloud Foundation, wie z. B. MTU-Größe, Port-Bindung, Teaming-Richtlinie und datenverkehrsspezifische Netzwerkfreigaben.

Tabelle 4. Empfehlungen für das vSphere-Netzwerkdesign für VMware Cloud Foundation

Empfehlungs-ID

Designempfehlung

Begründung

Auswirkung

VCF-VDS-RCMD-CFG-001

Verwenden Sie einen einzelnen vSphere Distributed Switch pro Cluster.

  • Reduziert die Komplexität des Netzwerkdesigns.

  • Verkleinert die Fehlerdomäne.

Erhöht die Anzahl der vSphere Distributed Switches, die verwaltet werden müssen.

VCF-VDS-RCMD-CFG-002

Konfigurieren Sie die MTU-Größe des vSphere Distributed Switch auf 9000 für Jumbo-Frames.

  • Unterstützt die MTU-Größe, die für Arten des Systemdatenverkehrs erforderlich ist.

  • Verbessert den Durchsatz des Datenverkehrs.

Beim Anpassen der MTU-Paketgröße müssen Sie auch den gesamten Netzwerkpfad (VMkernel-Ports, virtuelle Switches, physische Switches und Router) so konfigurieren, dass er dieselbe MTU-Paketgröße unterstützt.

VCF-VDS-RCMD-DPG-001

Verwenden Sie die flüchtige Portbindung für die Verwaltungsportgruppe.

Wird die flüchtige Port-Bindung verwendet, kann die vCenter Server-Instanz wiederhergestellt werden, die den Distributed Switch verwaltet.

Berechtigungen und Steuerelemente auf Portebene gehen während des Ein-/Ausschaltzyklus verloren, und es wird kein Verlaufskontext gespeichert.

VCF-VDS-RCMD-DPG-002

Verwenden Sie die statische Port-Bindung für alle Nicht-Verwaltungsportgruppen.

Die statische Bindung stellt sicher, dass eine virtuelle Maschine eine Verbindung mit demselben Port auf dem vSphere Distributed Switch herstellt. Dies ermöglicht die Überwachung von Verlaufsdaten und Portebene.

Keine.

VCF-VDS-RCMD-DPG-003

Verwenden Sie den Teaming-Algorithmus Route based on physical NIC load für die Verwaltungsportgruppe.

Reduziert die Komplexität des Netzwerkdesigns und erhöht die Ausfallsicherheit und die Leistung.

Keine.

VCF-VDS-RCMD-DPG-004

Verwenden Sie den Teaming-Algorithmus Route based on physical NIC load für die vSphere vMotion-Portgruppe.

Reduziert die Komplexität des Netzwerkdesigns und erhöht die Ausfallsicherheit und die Leistung.

Keine.

VCF-VDS-RCMD-NIO-001

Aktivieren Sie Network I/O Control für den vSphere Distributed Switch des Verwaltungsdomänen-Clusters.

Erhöht die Stabilität und Leistung des Netzwerks.

Bei falscher Konfiguration kann Network I/O Control die Netzwerkleistung für kritische Datenverkehrstypen beeinträchtigen.

VCF-VDS-RCMD-NIO-002

Legen Sie den Anteilswert für den Verwaltungsdatenverkehr auf Normal fest.

Wenn die Standardeinstellung „Normal“ beibehalten wird, wird der Verwaltungsdatenverkehr höher priorisiert als vSphere vMotion, aber niedriger als vSAN-Datenverkehr. Der Verwaltungsdatenverkehr ist wichtig, da er sicherstellt, dass die Hosts auch während eines Netzwerkkonflikts verwaltet werden können.

Keine.

VCF-VDS-RCMD-NIO-003

Legen Sie den Anteilswert für vSphere vMotion-Datenverkehr auf „Niedrig“ fest.

Während eines Netzwerkkonflikts ist der vSphere vMotion-Datenverkehr nicht so wichtig wie VM- oder Speicherdatenverkehr.

Während eines Netzwerkkonflikts wird für die Ausführung von vMotion mehr Zeit als gewöhnlich benötigt.

VCF-VDS-RCMD-NIO-004

Legen Sie den Anteilswert für virtuelle Maschinen auf „Hoch“ fest.

Virtuelle Maschinen sind das wichtigste Objekt im SDDC. Wenn Sie die Standardeinstellung „Hoch“ beibehalten, wird sichergestellt, dass sie immer Zugriff auf die benötigten Netzwerkressourcen haben.

Keine.

VCF-VDS-RCMD-NIO-005

Legen Sie den Anteilswert für vSAN-Datenverkehr auf „Hoch“ fest.

Während eines Netzwerkkonflikts benötigt vSAN-Datenverkehr garantierte Bandbreite zur Unterstützung der VM-Leistung.

Keine.

VCF-VDS-RCMD-NIO-006

Legen Sie den Anteilswert für andere Datenverkehrstypen auf „Niedrig“ fest.

Standardmäßig verwendet VMware Cloud Foundation keine anderen Datenverkehrstypen wie vSphere FT-Datenverkehr. Daher kann für diese Datenverkehrstypen die niedrigste Priorität festgelegt werden.

Keine.