Verwenden Sie diese Liste für Designentscheidungen im Zusammenhang mit der Konfiguration des physischen Netzwerks in einer Umgebung mit einer oder mehreren VMware Cloud Foundation-Instanzen. Im Design wird auch berücksichtigt, ob eine Instanz eine einzelne oder mehrere Verfügbarkeitszonen enthält.
Alle Details zum Design finden Sie unter Design der physischen Netzwerkinfrastruktur für VMware Cloud Foundation.
Anforderungs-ID |
Designanforderung |
Begründung |
Auswirkung |
---|---|---|---|
VCF-NET-REQD-CFG-001 |
Verwenden Sie keine EtherChannel-Konfiguration (LAG, LACP oder vPC) für ESXi Host-Uplinks. |
|
Keine. |
VCF-NET-REQD-CFG-002 |
Verwenden Sie VLANs, um physische Netzwerkfunktionen zu trennen. |
|
Erfordert eine einheitliche Konfiguration und Präsentation auf allen Trunks, die den ESXi-Hosts zur Verfügung gestellt werden. |
VCF-NET-REQD-CFG-003 |
Konfigurieren Sie die VLANs als Mitglieder eines 802.1Q-Trunks. |
Alle VLANs werden auf denselben physischen Netzwerkadaptern auf den ESXi Hosts verfügbar. |
Optional kann das Verwaltungs-VLAN als natives VLAN fungieren. |
VCF-NET-REQD-CFG-004 |
Legen Sie die MTU-Größe auf mindestens 1.700 Byte (empfohlen 9.000 Byte für Jumbo-Frames) auf den physischen Switch-Ports, vSphere Distributed Switches, vSphere Distributed Switch Portgruppen und N-VDS Switches fest, die die folgenden Datenverkehrstypen unterstützen:
|
|
Beim Anpassen der MTU-Paketgröße müssen Sie auch den gesamten Netzwerkpfad (VMkernel-Netzwerkadapter, virtuelle Switches, physische Switches und Router) so konfigurieren, dass er dieselbe MTU-Paketgröße unterstützt. In einer Umgebung mit mehreren Verfügbarkeitsbereichen muss die MTU auf dem gesamten Netzwerkpfad zwischen den Zonen konfiguriert werden. |
Anforderungs-ID |
Designanforderung |
Begründung |
Auswirkung |
---|---|---|---|
VCF-NET-L3MR-REQD-CFG-001 |
Stellen Sie für eine VI-Arbeitslastdomäne mit einem Computing-Cluster mit mehreren Racks separate VLANs pro Rack für jede Netzwerkfunktion bereit.
|
Ein Layer-3-Leaf-Spine-Fabric verfügt über eine Layer-3-Begrenzung an den Leaf-Switches in jedem Rack und bildet eine Layer-3-Begrenzung zwischen Racks. |
Erfordert zusätzliche VLANs für jedes Rack. |
VCF-NET-L3MR-REQD-CFG-002 |
Für eine VI-Arbeitslastdomäne mit einem Computing-Cluster mit mehreren Racks müssen die Subnetze für jedes Netzwerk pro Rack routingfähig und für die Leaf-Switches in den anderen Racks erreichbar sein.
|
Stellt sicher, dass der Datenverkehr für jedes Netzwerk zwischen Racks weitergeleitet werden kann. |
Erfordert eine zusätzliche physische Netzwerkkonfiguration, damit Netzwerke zwischen Racks geroutet werden können. |
Anforderungs-ID |
Designanforderung |
Begründung |
Auswirkung |
---|---|---|---|
VCF-NET-MRE-REQD-CFG-001 |
Konfigurieren Sie für NSX Edge-Multi-Rack-Verfügbarkeit in allen Racks, die für Edge-Knoten vorgesehen sind, die Leaf-Switches mit den folgenden VLANs:
|
Ein Layer-3-Leaf-Spine-Fabric verfügt über eine Layer-3-Begrenzung an den Leaf-Switches in jedem Rack und bildet eine Layer-3-Begrenzung zwischen Racks. |
Erfordert zusätzliche VLANs für jedes Rack. |
VCF-NET-MRE-REQD-CFG-002 |
Für NSX Edge-Multi-Rack-Verfügbarkeit müssen in allen Racks, die für Edge-Knoten vorgesehen sind, die Subnetze für die folgenden Netzwerke routingfähig und für die Leaf-Switches in den anderen Racks erreichbar sein.
|
Stellt sicher, dass der Datenverkehr für das Netzwerk der Edge-TEPs zwischen Racks weitergeleitet werden kann. |
Erfordert eine zusätzliche physische Netzwerkkonfiguration, damit Netzwerke zwischen Racks geroutet werden können. |
Anforderungs-ID |
Designanforderung |
Begründung |
Auswirkung |
---|---|---|---|
VCF-NET-REQD-CFG-005 |
Legen Sie die MTU-Größe auf den Komponenten des physischen Netzwerks zwischen den VMware Cloud Foundation-Instanzen für die folgenden Datenverkehrstypen auf mindestens 1.500 Byte fest (1.700 Byte bevorzugt, 9.000 Byte empfohlen für Jumbo-Frames).
|
|
Beim Anpassen der MTU-Paketgröße müssen Sie auch den gesamten Netzwerkpfad konfigurieren, also virtuelle Schnittstellen, virtuelle Switches, physische Switches und Router, um dieselbe MTU-Paketgröße zu unterstützen. |
VCF-NET-REQD-CFG-006 |
Stellen Sie sicher, dass die Latenz zwischen VMware Cloud Foundation-Instanzen, die in einem NSX-Verbund verbunden sind, weniger als 500 ms beträgt. |
Für den NSX-Verbund ist eine Latenz von weniger als 500 ms erforderlich. |
Keine. |
VCF-NET-REQD-CFG-007 |
Stellen Sie eine geroutete Verbindung zwischen den NSX Manager-Clustern in VMware Cloud Foundation-Instanzen bereit, die in einem NSX-Verbund verbunden sind. |
Das Konfigurieren des NSX Verbunds erfordert Konnektivität zwischen den NSX Global Manager-Instanzen, NSX lokalen Manager-Instanzen und NSX Edge-Clustern. |
Sie müssen jeder Fehlerdomäne eindeutige routingfähige IP-Adressen zuweisen. |
Empfehlungs-ID |
Designempfehlung |
Begründung |
Auswirkung |
---|---|---|---|
VCF-NET-RCMD-CFG-001 |
Verwenden Sie zwei ToR-Switches für jedes Rack. |
Unterstützt die Verwendung von zwei 10-GbE-Links (25 GbE oder höher empfohlen) zu jedem Server, bietet Redundanz und reduziert die allgemeine Designkomplexität. |
Erfordert zwei ToR-Switches pro Rack, was die Kosten erhöhen kann. |
VCF-NET-RCMD-CFG-002 |
Implementieren Sie die folgende physische Netzwerkarchitektur:
|
|
|
VCF-NET-RCMD-CFG-003 |
Verwenden Sie ein physisches Netzwerk, das für die BGP-Routing-Nachbarschaft konfiguriert ist. |
|
Erfordert eine BGP-Konfiguration im physischen Netzwerk. |
VCF-NET-RCMD-CFG-004 |
Weisen Sie dauerhafte IP-Konfigurationen für NSX-Tunnel-Endpoints (TEPs) zu, die dynamische IP-Pools anstelle statischer IP-Pool-Adressierung nutzen. |
|
Wenn Sie dem Cluster weitere Hosts hinzufügen, muss die Anzahl der statischen IP-Pools unter Umständen erhöht werden. |
VCF-NET-RCMD-CFG-005 |
Konfigurieren Sie die mit ESXi-Netzwerkkarten verbundenen Trunk-Ports als Trunk-PortFast. |
Reduziert die Zeit für den Übergang der Ports in den Weiterleitungszustand. |
Bei diesem Design wird zwar kein STP verwendet.Bei Switches ist STP jedoch in der Regel standardmäßig konfiguriert. |
VCF-NET-RCMD-CFG-006 |
Konfigurieren Sie VRRP, HSRP- oder eine andere Layer-3-Gateway-Verfügbarkeitsmethode für diese Netzwerke.
|
Stellen Sie sicher, dass die VLANs, die zwischen Verfügbarkeitszonen ausgeweitet werden, mit einem hochverfügbaren Gateway verbunden sind. Andernfalls führt ein Ausfall im Layer-3-Gateway zu einer Unterbrechung des Datenverkehrs im SDN-Setup. |
Erfordert die Konfiguration einer Hochverfügbarkeitstechnologie für die Schicht-3-Gateways im Datencenter. |
VCF-NET-RCMD-CFG-007 |
Verwenden Sie separate VLANs für die Netzwerkfunktionen für jeden Cluster. |
Passt die Größe der Layer-2-Broadcast-Domäne an einen einzelnen vSphere-Cluster an. |
Erhöht die Gesamtzahl der VLANs, die für eine VMware Cloud Foundation-Instanz erforderlich sind. |
Empfehlungs-ID |
Designempfehlung |
Begründung |
Auswirkung |
---|---|---|---|
VCF-NET-DES-RCMD-CFG-001 |
Implementieren Sie die folgende physische Netzwerkarchitektur:
|
Unterstützt die Anforderungen für hohe Bandbreite sowie Pakete pro Sekunde für umfangreiche Bereitstellungen. |
Erfordert Netzwerk-Switches mit 100 GbE. |
Empfehlungs-ID |
Designempfehlung |
Begründung |
Auswirkung |
---|---|---|---|
VCF-NET-RCMD-CFG-008 |
Stellen Sie BGP-Routing zwischen allen VMware Cloud Foundation-Instanzen bereit, die in einer NSX-Verbundeinrichtung verbunden sind. |
BGP ist das unterstützte Routing-Protokoll für NSX Federation. |
Keine. |
VCF-NET-RCMD-CFG-009 |
Stellen Sie sicher, dass die Latenz zwischen VMware Cloud Foundation-Instanzen, die in einem NSX-Verbund verbunden sind, weniger als 150 ms für die Arbeitslastmobilität beträgt. |
Für die folgenden Funktionen ist eine Latenz von weniger als 150 ms erforderlich:
|
Keine. |