Das Design des physischen Datencenter-Netzwerks umfasst die Definition der Netzwerktopologie für die Verbindung physischer Switches und ESXi-Hosts, die Ermittlung der Switch Port-Einstellungen für VLANs und Link-Aggregation und den Routing-Entwurf.
Ein softwaredefiniertes Netzwerk (SDN) wird mit Komponenten des physischen Datencenters vernetzt und verwendet diese. Ein SDN wird mit Ihrem physischen Netzwerk vernetzt, um den Ost-West-Transit im Datencenter und den Nord-Süd-Transit zu und von den SDDC-Netzwerken zu unterstützen.
Es gibt mehrere typische Bereitstellungstopologien für Datencenter-Netzwerke:
Core-Aggregation-Zugriff
Leaf-Spine
Hardware-SDN
Bei Leaf-Spine handelt es sich um die standardmäßige Bereitstellungstopologie für Datencenter-Netzwerke in VMware Cloud Foundation.
VLANs und Subnetze für VMware Cloud Foundation
Konfigurieren Sie Ihre VLANs und Subnetze gemäß den Richtlinien und Anforderungen für VMware Cloud Foundation.
Beachten Sie beim Entwerfen der VLAN- und Subnetzkonfiguration für Ihre VMware Cloud Foundation-Bereitstellung die folgenden Richtlinien:
Alle Bereitstellungstopologien |
Mehrere Verfügbarkeitszonen |
NSX-Verbund zwischen mehreren VMware Cloud Foundation-Instanzen |
VI-Arbeitslastdomäne mit einem Computing-Cluster mit mehreren Racks |
---|---|---|---|
|
|
|
Verwenden Sie den RFC 1918-IPv4-Adressbereich für diese Subnetze und teilen Sie ein Oktett nach Rack und ein Oktett nach Netzwerkfunktion zu. |
Wenn VLANs und Subnetze für VMware Cloud Foundation bereitgestellt werden, müssen sie die folgenden Anforderungen gemäß der VMware Cloud Foundation-Topologie erfüllen:
Funktion |
VMware Cloud Foundation-Instanzen mit einer einzelnen Verfügbarkeitszone |
VMware Cloud Foundation-Instanzen mit mehreren Verfügbarkeitszonen |
---|---|---|
VM-Verwaltung |
|
|
Hostverwaltung – erste Verfügbarkeitszone |
|
|
vSphere vMotion – erste Verfügbarkeitszone |
|
|
vSAN – erste Verfügbarkeitszone |
|
|
Host-Overlay – erste Verfügbarkeitszone |
|
|
NFS |
|
|
Uplink01 |
|
|
Uplink02 |
|
|
Edge-Overlay |
|
|
Hostverwaltung – zweite Verfügbarkeitszone |
|
|
vSphere vMotion – zweite Verfügbarkeitszone |
|
|
vSAN – zweite Verfügbarkeitszone |
|
|
Host-Overlay – zweite Verfügbarkeitszone |
|
|
Edge-RTEP |
|
|
Management und Zeuge – Zeugen-Appliance an einem dritten Standort |
|
|
Funktion |
VMware Cloud Foundation-Instanzen mit einer VI-Arbeitslastdomäne mit einem Computing-Cluster mit mehreren Racks |
VMware Cloud Foundation-Instanzen mit NSX Edge-Multi-Rack-Verfügbarkeit |
---|---|---|
VM-Verwaltung |
|
|
Hostverwaltung |
|
|
vSphere vMotion |
|
|
vSAN |
|
|
Host-Overlay |
|
|
NFS |
|
|
Uplink01 |
|
|
Uplink02 |
|
|
Edge-Overlay |
|
|
Anforderungen und Empfehlungen für das Design für physische Leaf-Spine-Netzwerke für VMware Cloud Foundation
Bei Leaf-Spine handelt es sich um die standardmäßige Bereitstellungstopologie für Datencenter-Netzwerke in VMware Cloud Foundation. Berücksichtigen Sie die Netzwerkbandbreite, die Trunk-Port-Konfiguration sowie die Jumbo-Frames- und Routing-Konfiguration für NSX in einer Bereitstellung mit einer einzelnen oder mehreren VMware Cloud Foundation-Instanzen.
Logisches Design des physischen Leaf-Spine-Netzwerks
Anforderungen und Empfehlungen für physische Leaf-Spine-Netzwerke
Die Anforderungen und Empfehlungen für die Leaf-Spine-Netzwerkkonfiguration bestimmen das physische Layout und die Verwendung von VLANs. Sie enthalten auch Anforderungen und Empfehlungen für Jumbo-Frames und netzwerkbezogene Anforderungen wie DNS, NTP und Routing.
Anforderungs-ID |
Designanforderung |
Begründung |
Auswirkung |
---|---|---|---|
VCF-NET-REQD-CFG-001 |
Verwenden Sie keine EtherChannel-Konfiguration (LAG, LACP oder vPC) für ESXi Host-Uplinks. |
|
Keine. |
VCF-NET-REQD-CFG-002 |
Verwenden Sie VLANs, um physische Netzwerkfunktionen zu trennen. |
|
Erfordert eine einheitliche Konfiguration und Präsentation auf allen Trunks, die den ESXi-Hosts zur Verfügung gestellt werden. |
VCF-NET-REQD-CFG-003 |
Konfigurieren Sie die VLANs als Mitglieder eines 802.1Q-Trunks. |
Alle VLANs werden auf denselben physischen Netzwerkadaptern auf den ESXi Hosts verfügbar. |
Optional kann das Verwaltungs-VLAN als natives VLAN fungieren. |
VCF-NET-REQD-CFG-004 |
Legen Sie die MTU-Größe auf mindestens 1.700 Byte (empfohlen 9.000 Byte für Jumbo-Frames) auf den physischen Switch-Ports, vSphere Distributed Switches, vSphere Distributed Switch Portgruppen und N-VDS Switches fest, die die folgenden Datenverkehrstypen unterstützen:
|
|
Beim Anpassen der MTU-Paketgröße müssen Sie auch den gesamten Netzwerkpfad (VMkernel-Netzwerkadapter, virtuelle Switches, physische Switches und Router) so konfigurieren, dass er dieselbe MTU-Paketgröße unterstützt. In einer Umgebung mit mehreren Verfügbarkeitsbereichen muss die MTU auf dem gesamten Netzwerkpfad zwischen den Zonen konfiguriert werden. |
Anforderungs-ID |
Designanforderung |
Begründung |
Auswirkung |
---|---|---|---|
VCF-NET-L3MR-REQD-CFG-001 |
Stellen Sie für eine VI-Arbeitslastdomäne mit einem Computing-Cluster mit mehreren Racks separate VLANs pro Rack für jede Netzwerkfunktion bereit.
|
Ein Layer-3-Leaf-Spine-Fabric verfügt über eine Layer-3-Begrenzung an den Leaf-Switches in jedem Rack und bildet eine Layer-3-Begrenzung zwischen Racks. |
Erfordert zusätzliche VLANs für jedes Rack. |
VCF-NET-L3MR-REQD-CFG-002 |
Für eine VI-Arbeitslastdomäne mit einem Computing-Cluster mit mehreren Racks müssen die Subnetze für jedes Netzwerk pro Rack routingfähig und für die Leaf-Switches in den anderen Racks erreichbar sein.
|
Stellt sicher, dass der Datenverkehr für jedes Netzwerk zwischen Racks weitergeleitet werden kann. |
Erfordert eine zusätzliche physische Netzwerkkonfiguration, damit Netzwerke zwischen Racks geroutet werden können. |
Anforderungs-ID |
Designanforderung |
Begründung |
Auswirkung |
---|---|---|---|
VCF-NET-REQD-CFG-005 |
Legen Sie die MTU-Größe auf den Komponenten des physischen Netzwerks zwischen den VMware Cloud Foundation-Instanzen für die folgenden Datenverkehrstypen auf mindestens 1.500 Byte fest (1.700 Byte bevorzugt, 9.000 Byte empfohlen für Jumbo-Frames).
|
|
Beim Anpassen der MTU-Paketgröße müssen Sie auch den gesamten Netzwerkpfad konfigurieren, also virtuelle Schnittstellen, virtuelle Switches, physische Switches und Router, um dieselbe MTU-Paketgröße zu unterstützen. |
VCF-NET-REQD-CFG-006 |
Stellen Sie sicher, dass die Latenz zwischen VMware Cloud Foundation-Instanzen, die in einem NSX-Verbund verbunden sind, weniger als 500 ms beträgt. |
Für den NSX-Verbund ist eine Latenz von weniger als 500 ms erforderlich. |
Keine. |
VCF-NET-REQD-CFG-007 |
Stellen Sie eine geroutete Verbindung zwischen den NSX Manager-Clustern in VMware Cloud Foundation-Instanzen bereit, die in einem NSX-Verbund verbunden sind. |
Das Konfigurieren des NSX Verbunds erfordert Konnektivität zwischen den NSX Global Manager-Instanzen, NSX lokalen Manager-Instanzen und NSX Edge-Clustern. |
Sie müssen jeder Fehlerdomäne eindeutige routingfähige IP-Adressen zuweisen. |
Empfehlungs-ID |
Designempfehlung |
Begründung |
Auswirkung |
---|---|---|---|
VCF-NET-RCMD-CFG-001 |
Verwenden Sie zwei ToR-Switches für jedes Rack. |
Unterstützt die Verwendung von zwei 10-GbE-Links (25 GbE oder höher empfohlen) zu jedem Server, bietet Redundanz und reduziert die allgemeine Designkomplexität. |
Erfordert zwei ToR-Switches pro Rack, was die Kosten erhöhen kann. |
VCF-NET-RCMD-CFG-002 |
Implementieren Sie die folgende physische Netzwerkarchitektur:
|
|
|
VCF-NET-RCMD-CFG-003 |
Verwenden Sie ein physisches Netzwerk, das für die BGP-Routing-Nachbarschaft konfiguriert ist. |
|
Erfordert eine BGP-Konfiguration im physischen Netzwerk. |
VCF-NET-RCMD-CFG-004 |
Weisen Sie dauerhafte IP-Konfigurationen für NSX-Tunnel-Endpoints (TEPs) zu, die dynamische IP-Pools anstelle statischer IP-Pool-Adressierung nutzen. |
|
Wenn Sie dem Cluster weitere Hosts hinzufügen, muss die Anzahl der statischen IP-Pools unter Umständen erhöht werden. |
VCF-NET-RCMD-CFG-005 |
Konfigurieren Sie die mit ESXi-Netzwerkkarten verbundenen Trunk-Ports als Trunk-PortFast. |
Reduziert die Zeit für den Übergang der Ports in den Weiterleitungszustand. |
Bei diesem Design wird zwar kein STP verwendet.Bei Switches ist STP jedoch in der Regel standardmäßig konfiguriert. |
VCF-NET-RCMD-CFG-006 |
Konfigurieren Sie VRRP, HSRP- oder eine andere Layer-3-Gateway-Verfügbarkeitsmethode für diese Netzwerke.
|
Stellen Sie sicher, dass die VLANs, die zwischen Verfügbarkeitszonen ausgeweitet werden, mit einem hochverfügbaren Gateway verbunden sind. Andernfalls führt ein Ausfall im Layer-3-Gateway zu einer Unterbrechung des Datenverkehrs im SDN-Setup. |
Erfordert die Konfiguration einer Hochverfügbarkeitstechnologie für die Schicht-3-Gateways im Datencenter. |
VCF-NET-RCMD-CFG-007 |
Verwenden Sie separate VLANs für die Netzwerkfunktionen für jeden Cluster. |
Passt die Größe der Layer-2-Broadcast-Domäne an einen einzelnen vSphere-Cluster an. |
Erhöht die Gesamtzahl der VLANs, die für eine VMware Cloud Foundation-Instanz erforderlich sind. |
Empfehlungs-ID |
Designempfehlung |
Begründung |
Auswirkung |
---|---|---|---|
VCF-NET-DES-RCMD-CFG-001 |
Implementieren Sie die folgende physische Netzwerkarchitektur:
|
Unterstützt die Anforderungen für hohe Bandbreite sowie Pakete pro Sekunde für umfangreiche Bereitstellungen. |
Erfordert Netzwerk-Switches mit 100 GbE. |
Empfehlungs-ID |
Designempfehlung |
Begründung |
Auswirkung |
---|---|---|---|
VCF-NET-RCMD-CFG-008 |
Stellen Sie BGP-Routing zwischen allen VMware Cloud Foundation-Instanzen bereit, die in einer NSX-Verbundeinrichtung verbunden sind. |
BGP ist das unterstützte Routing-Protokoll für NSX Federation. |
Keine. |
VCF-NET-RCMD-CFG-009 |
Stellen Sie sicher, dass die Latenz zwischen VMware Cloud Foundation-Instanzen, die in einem NSX-Verbund verbunden sind, weniger als 150 ms für die Arbeitslastmobilität beträgt. |
Für die folgenden Funktionen ist eine Latenz von weniger als 150 ms erforderlich:
|
Keine. |