Verwenden Sie diese Liste der Anforderungen und Empfehlungen als Referenz im Zusammenhang mit der Konfiguration von NSX in einer Umgebung mit einer oder mehreren VMware Cloud Foundation-Instanzen. Im Design wird auch berücksichtigt, ob eine Instanz eine einzelne oder mehrere Verfügbarkeitszonen enthält.

Alle Details zum Design finden Sie unter NSX-Design für VMware Cloud Foundation.

NSX Manager-Designelemente

Tabelle 1. Anforderungen an das NSX Manager-Design für VMware Cloud Foundation

Anforderungs-ID

Designanforderung

Begründung

Auswirkung

VCF-NSX-LM-REQD-CFG-001

Platzieren Sie die Appliances des NSX Manager-Clusters im VM-Verwaltungsnetzwerk in der Verwaltungsdomäne.

  • Vereinfacht die IP-Adressierung für Verwaltungs-VMs durch Verwendung desselben VLANs und Subnetzes.

  • Bietet vereinfachten sicheren Zugriff auf Verwaltungs-VMs im selben VLAN-Netzwerk.

Keine.

VCF-NSX-LM-REQD-CFG-002

Stellen Sie drei NSX Manager-Knoten im vSphere-Standardcluster in der Verwaltungsdomäne bereit, um die Netzwerkdienste für die Arbeitslastdomäne zu konfigurieren und zu verwalten.

Unterstützt die Hochverfügbarkeit des NSX Manager-Clusters.

Sie müssen über ausreichende Ressourcen im Standardcluster der Verwaltungsdomäne verfügen, um drei NSX Manager-Knoten ausführen zu können.

Tabelle 2. Empfehlungen für das NSX Manager-Design für VMware Cloud Foundation

Empfehlungs-ID

Designempfehlung

Begründung

Auswirkung

VCF-NSX-LM-RCMD-CFG-001

Stellen Sie Knoten in geeigneter Größe im NSX Manager-Cluster für die Arbeitslastdomäne bereit.

Gewährleistet Ressourcenverfügbarkeit und Nutzungseffizienz pro Arbeitslastdomäne.

Die Standardgröße für eine Verwaltungsdomäne ist „Mittel“ und für VI-Arbeitslastdomänen „Groß“.

VCF-NSX-LM-RCMD-CFG-002

Erstellen Sie eine virtuelle IP-Adresse (VIP) für den NSX Manager-Cluster für die Arbeitslastdomäne.

Bietet Hochverfügbarkeit der Benutzeroberfläche und der API von NSX Manager.

  • Die VIP-Adressfunktion bietet nur Hochverfügbarkeit. Es erfolgt kein Lastausgleich für Anforderungen im Cluster.

  • Bei Verwendung der VIP-Adressfunktion müssen alle NSX Manager-Knoten im selben Layer-2-Netzwerk bereitgestellt werden.

VCF-NSX-LM-RCMD-CFG-003

Wenden Sie VM-VM-Anti-Affinitätsregeln in vSphere Distributed Resource Scheduler (vSphere DRS) auf die NSX Manager-Appliances an.

Sorgt dafür, dass die NSX Manager-Appliances auf verschiedenen ESXi-Hosts ausgeführt werden, um Hochverfügbarkeit zu gewährleisten.

Sie müssen mindestens vier physische Hosts zuteilen, damit die drei NSX Manager-Appliances weiterhin ausgeführt werden, wenn ein ESXi-Host ausfällt.

VCF-NSX-LM-RCMD-CFG-004

Legen Sie in vSphere HA die Richtlinie für die Neustartpriorität für jede NSX Manager-Appliance auf „Hoch“ fest.

  • NSX Manager implementiert die Steuerungsebene für virtuelle Netzwerksegmente. vSphere HA startet zuerst die NSX Manager-Appliances neu, sodass andere virtuelle Maschinen, die eingeschaltet oder mithilfe von vSphere vMotion migriert werden, während die Steuerungsebene offline ist, die Konnektivität nur so lange verlieren, bis das Quorum der Steuerungsebene wiederhergestellt ist.

  • Wenn Sie die Neustartpriorität auf „Hoch“ festlegen, wird die höchste Priorität für die Flexibilität beim Hinzufügen von Diensten reserviert, die vor NSX Manager gestartet werden müssen.

Wenn die Neustartpriorität für eine andere Verwaltungs-Appliance auf den höchsten Wert festgelegt ist, verlängert sich die Konnektivitätsverzögerung für Verwaltungs-Appliances.

Tabelle 3. Empfehlungen für das NSX Manager-Design für Stretched Cluster in VMware Cloud Foundation

Empfehlungs-ID

Designempfehlung

Begründung

Auswirkung

VCF-NSX-LM-RCMD-CFG-006

Fügen Sie die NSX Manager-Appliances der VM-Gruppe für die erste Verfügbarkeitszone hinzu.

Stellen Sie sicher, dass die NSX Manager-Appliances standardmäßig auf einem Host in der primären Verfügbarkeitszone eingeschaltet sind.

Keine.

NSX Global Manager-Designelemente

Konfigurationsaufgaben für die Designanforderungen und Empfehlungen für NSX Global Manager müssen manuell durchgeführt werden.

Tabelle 4. Anforderungen an das NSX Global Manager-Design für VMware Cloud Foundation

Anforderungs-ID

Designanforderung

Begründung

Auswirkung

VCF-NSX-GM-REQD-CFG-001

Platzieren Sie die Appliances des NSX Global Manager-Clusters im VM-Verwaltungsnetzwerk in jeder VMware Cloud Foundation-Instanz.

  • Vereinfacht die IP-Adressierung für Verwaltungs-VMs.

  • Bietet vereinfachten sicheren Zugriff auf alle Verwaltungs-VMs im selben VLAN-Netzwerk.

Keine.

Tabelle 5. Empfehlungen für das NSX Global Manager-Design für VMware Cloud Foundation

Empfehlungs-ID

Designempfehlung

Begründung

Auswirkung

VCF-NSX-GM-RCMD-CFG-001

Stellen Sie drei NSX Global Manager-Knoten für die Arbeitslastdomäne bereit, um den NSX-Verbund in mehreren VMware Cloud Foundation-Instanzen zu unterstützen.

Bietet Hochverfügbarkeit für den NSX Global Manager-Cluster.

Sie müssen über ausreichende Ressourcen im Standardcluster der Verwaltungsdomäne verfügen, um drei NSX Global Manager-Knoten ausführen zu können.

VCF-NSX-GM-RCMD-CFG-002

Stellen Sie Knoten in geeigneter Größe im NSX Global Manager-Cluster für die Arbeitslastdomäne bereit.

Aktivieren Sie Maximalwerte für VMware-Konfiguration, um den richtigen NSX Global Manager-Formfaktor für Ihre Skalierungsanforderungen auszuwählen.

Gewährleistet Ressourcenverfügbarkeit und Nutzungseffizienz pro Arbeitslastdomäne.

Bei falsch dimensionierten NSX Global Managern ist eine Skalierung gemäß den Anforderungen unter Umständen nicht möglich.

VCF-NSX-GM-RCMD-CFG-003

Erstellen Sie eine virtuelle IP-Adresse (VIP) für den NSX Global Manager-Cluster für die Arbeitslastdomäne.

Bietet Hochverfügbarkeit der Benutzeroberfläche und der API von NSX Global Manager.

  • Die VIP-Adressfunktion bietet nur Hochverfügbarkeit. Es erfolgt kein Lastausgleich für Anforderungen im Cluster.

  • Bei Verwendung der VIP-Adressfunktion müssen alle NSX Global Manager-Knoten im selben Layer-2-Netzwerk bereitgestellt werden.

VCF-NSX-GM-RCMD-CFG-004

Wenden Sie VM-VM-Anti-Affinitätsregeln in vSphere DRS auf die NSX Global Manager-Appliances an.

Sorgt dafür, dass die NSX Global Manager-Appliances auf verschiedenen ESXi-Hosts ausgeführt werden, um Hochverfügbarkeit zu gewährleisten.

Sie müssen mindestens vier physische Hosts zuteilen, damit die drei NSX Manager-Appliances weiterhin ausgeführt werden, wenn ein ESXi-Host ausfällt.

VCF-NSX-GM-RCMD-CFG-005

Legen Sie in vSphere HA die Richtlinie für die Neustartpriorität für jede NSX Manager-Appliance auf „Mittel“ fest.

  • NSX Global Manager implementiert die Management Plane für globale Segmente und Firewalls.

    NSX Global Manager ist für die Konnektivität zwischen Steuerungsebene und Datenebene nicht erforderlich.

  • Wenn Sie die Neustartpriorität auf „Mittel“ festlegen, wird die hohe Priorität für Dienste reserviert, die sich auf die NSX-Steuerungs- oder Datenebene auswirken.

  • Die Verwaltung globaler NSX-Komponenten ist erst verfügbar, wenn die virtuellen Maschinen von NSX Global Manager neu gestartet werden.

  • Der NSX Global Manager-Cluster wird in der Verwaltungsdomäne bereitgestellt, in der die Gesamtzahl der virtuellen Maschinen begrenzt ist und in der er mit anderen Verwaltungskomponenten um die Neustartpriorität konkurriert.

VCF-NSX-GM-RCMD-CFG-006

Stellen Sie einen zusätzlichen NSX Global Manager-Cluster in der zweiten VMware Cloud Foundation-Instanz bereit.

Aktiviert die Wiederherstellbarkeit von NSX Global Manager in der zweiten VMware Cloud Foundation-Instanz, wenn in der ersten VMware Cloud Foundation-Instanz ein Fehler auftritt.

In der zweiten VMware Cloud Foundation-Instanz sind zusätzliche NSX Global Manager-Knoten erforderlich.

VCF-NSX-GM-RCMD-CFG-007

Legen Sie den NSX Global Manager-Cluster in der zweiten VMware Cloud Foundation-Instanz als Standby für die Arbeitslastdomäne fest.

Aktiviert die Wiederherstellbarkeit von NSX Global Manager in der zweiten VMware Cloud Foundation-Instanz, wenn in der ersten Instanz ein Fehler auftritt.

Muss manuell durchgeführt werden.

VCF-NSX-GM-RCMD-SEC-001

Richten Sie eine betriebliche Praktik ein, um den Fingerabdruck des NSX Local Manager-Zertifikats für NSX Global Manager immer dann zu erfassen und zu aktualisieren, wenn das Zertifikat mithilfe von SDDC Manager aktualisiert wird.

Stellt die sichere Konnektivität zwischen den NSX Manager-Instanzen sicher.

Jedes Zertifikat verfügt über einen eigenen eindeutigen Fingerabdruck. NSX Global Manager speichert den eindeutigen Fingerabdruck der NSX Local Manager-Instanzen, um die Sicherheit zu verbessern.

Wenn ein Authentifizierungsfehler zwischen NSX Global Manager und NSX Local Manager auftritt, werden Objekte, die über NSX Global Manager erstellt wurden, nicht an das SDN weitergegeben.

Der Administrator muss eine betriebliche Praktik einrichten und befolgen, indem er mittels eines Runbooks oder eines automatisierten Prozesses sicherstellt, dass der Fingerabdruck aktuell ist.

Tabelle 6. Empfehlungen für das NSX Global Manager-Design für Stretched Cluster in VMware Cloud Foundation

Empfehlungs-ID

Designempfehlung

Begründung

Auswirkung

VCF-NSX-GM-RCMD-CFG-008

Fügen Sie die NSX Global Manager-Appliances zur VM-Gruppe für die erste Verfügbarkeitszone hinzu.

Stellen Sie sicher, dass die NSX Global Manager-Appliances standardmäßig auf einem Host in der primären Verfügbarkeitszone eingeschaltet sind.

Wird beim Ausdehnen eines Clusters automatisch von VMware Cloud Foundation ausgeführt.

NSX Edge-Designelemente

Tabelle 7. Anforderungen an das NSX Edge-Design für VMware Cloud Foundation

Anforderungs-ID

Designanforderung

Begründung

Auswirkung

VCF-NSX-EDGE-REQD-CFG-001

Verbinden Sie die Verwaltungsschnittstelle jedes NSX Edge-Knotens mit dem VM-Verwaltungsnetzwerk.

Stellt eine Verbindung vom NSX Manager-Cluster zum NSX Edge bereit.

Keine.

VCF-NSX-EDGE-REQD-CFG-002

  • Verwenden Sie zwei physische Netzwerkkarten als Uplinks für die NSX Edge-Appliances, wie z. B. vmnic0 und vmnic1.

  • Verbinden Sie die fp-eth0-Schnittstelle jeder NSX Edge-Appliance mit einer VLAN-Trunk-Portgruppe, die an eine physische Netzwerkkarte (vmnic0) des Hosts angeschlossen ist, mit der Möglichkeit eines Failovers auf eine andere physische Netzwerkkarte (vmnic1).

  • Verbinden Sie die fp-eth1-Schnittstelle jeder NSX Edge-Appliance mit einer VLAN-Trunk-Portgruppe, die an eine physische Netzwerkkarte (vmnic1) des Hosts angeschlossen ist, mit der Möglichkeit eines Failovers auf die erste physische Netzwerkkarte (vmnic0).

  • Lassen Sie die Schnittstellen fp-eth2 und fp-eth3 jeder NSX Edge-Appliance ungenutzt.

  • Da VLAN-Trunk-Portgruppen Datenverkehr für alle VLANs weiterleiten, kann das VLAN-Tagging im NSX Edge-Knoten selbst erfolgen. Dadurch wird eine unkomplizierte Konfiguration nach der Bereitstellung ermöglicht.

  • Durch die Verwendung von zwei separaten VLAN-Trunk-Portgruppen können Sie den Datenverkehr vom Edge-Knoten nach Bedarf an eine bestimmte Hostnetzwerk-Schnittstelle und einen Top-of-Rack-Switch leiten.

  • Bei einem Ausfall des Top-of-Rack-Switches führt die VLAN-Trunk-Portgruppe ein Failover auf die andere physische Netzwerkkarte durch, um sicherzustellen, dass fp-eth0 und fp-eth1 verfügbar sind.

Keine.

VCF-NSX-EDGE-REQD-CFG-003

Verwenden Sie ein dediziertes VLAN für Edge-Overlay, das sich vom Host-Overlay-VLAN unterscheidet.

Ein dediziertes Edge-Overlay-Netzwerk bietet Unterstützung für Edge-Mobilität zur Unterstützung erweiterter Bereitstellungen wie mehrere Verfügbarkeitszonen oder Multi-Rack-Cluster.

  • Sie müssen über Routing zwischen den VLANs für Edge-Overlay und Host-Overlay verfügen.

  • Sie müssen ein weiteres VLAN in der Datencenter-Infrastruktur für Edge-Overlay zuteilen.

VCF-NSX-EDGE-REQD-CFG-004

Erstellen Sie ein Uplink-Profil für die Edge-Knoten mit drei Gruppierungsrichtlinien.

  • Standardmäßige Teaming-Richtlinie der Lastausgleichsquelle mit den aktiven Uplinks uplink1 und uplink2.

  • Benannte Teaming-Richtlinie der Failover-Reihenfolge mit dem einzelnen aktiven Uplink uplink1 ohne Standby-Uplinks.

  • Benannte Teaming-Richtlinie der Failover-Reihenfolge mit dem einzelnen aktiven Uplink uplink2 ohne Standby-Uplinks.

  • Der NSX Edge-Knoten, der einen einzelnen N-VDS verwendet, kann nur über ein Uplink-Profil verfügen.

  • Zur Verbesserung der Ausfallsicherheit und der Leistung wird die gleichzeitige Verwendung von beiden Edge-Uplinks über beide physische Netzwerkkarten auf den ESXi-Hosts unterstützt.

  • Die Standard-Teaming-Richtlinie verbessert die Overlay-Leistung und -Verfügbarkeit durch die Verwendung mehrerer TEPs und den Ausgleich des Overlay-Datenverkehrs.

  • Mithilfe benannter Teaming-Richtlinien können Sie einen Edge-Uplink mit einem bestimmten Host-Uplink und von dort aus mit einem bestimmten Top-of-Rack-Switch im Datencenter verbinden.

  • Aktiviert ECMP, da die NSX Edge-Knoten über zwei verschiedene VLANs einen Uplink zum physischen Netzwerk herstellen können.

Keine.

Tabelle 8. Designanforderungen an die NSX Edge-Multi-Rack-Verfügbarkeit für VMware Cloud Foundation

Anforderungs-ID

Designanforderung

Begründung

Auswirkung

VCF-NSX-MR-EDGE-REQD-ENV-001

Platzieren Sie mindestens eine Edge-VM pro Edge-Cluster auf jedem vSphere-Cluster, der sich in einem separaten Rack befindet.

Bietet Verfügbarkeit, wenn ein Rack oder vSphere-Cluster ausfällt.

Zusätzliche Computing-Ressourcen sind erforderlich.

VCF-NSX-MR-EDGE-REQD-CFG-001

Verbinden Sie die Verwaltungsschnittstelle jedes NSX Edge-Knotens in jedem Rack mit dem VM-Verwaltungsnetzwerk dieses Racks.

Stellt eine Verbindung vom NSX Manager-Cluster zum NSX Edge bereit.

Keine.

VCF-NSX-MR-EDGE-REQD-CFG-002

Verwenden Sie einen dedizierten IP-Pool für das Edge-Overlay-Netzwerk für jedes Rack, das für die Bereitstellung eines NSX Edge-Clusters mit mehreren Racks verwendet wird.

Ein dediziertes Edge-Overlay-Netzwerk und Subnetz pro Rack bieten Unterstützung für ein physisches Layer-3-Leaf-and-Spine-Netzwerkdesign mit der Layer-2-Begrenzung bei den Blattknoten.

Sie müssen zusätzliche IP-Pools für jedes weitere Rack verwalten.

VCF-NSX-MR-EDGE-REQD-CFG-003

Erstellen Sie ein Edge-Uplink-Profil für jedes Rack.

Ermöglicht ein dediziertes Edge-Overlay-VLAN pro Rack, um Unterstützung für ein physisches Layer-3-Leaf-and-Spine-Netzwerkdesign mit der Layer-2-Begrenzung bei den Blattknoten zu bieten.

Keine.
Tabelle 9. Anforderungen an das NSX Edge-Design für NSX-Verbund in VMware Cloud Foundation

Anforderungs-ID

Designanforderung

Begründung

Auswirkung

VCF-NSX-EDGE-REQD-CFG-005

Teilen Sie ein separates VLAN für das Edge-RTEP-Overlay zu, das sich vom Edge-Overlay-VLAN unterscheidet.

Das RTEP-Netzwerk muss sich in einem VLAN befinden, das sich vom Edge-Overlay-VLAN unterscheidet. Dies ist eine NSX-Anforderung, die die Konfiguration unterschiedlicher MTU-Größen pro Netzwerk unterstützt.

Sie müssen ein weiteres VLAN in der Datencenter-Infrastruktur zuteilen.

Tabelle 10. Empfehlungen für das NSX Edge-Design für VMware Cloud Foundation

Empfehlungs-ID

Designempfehlung

Begründung

Auswirkungen

VCF-NSX-EDGE-RCMD-CFG-001

Verwenden Sie virtuelle NSX Edge-Appliances in geeigneter Größe.

Gewährleistet Ressourcenverfügbarkeit und Nutzungseffizienz pro Arbeitslastdomäne.

Sie müssen genügend Computing-Ressourcen bereitstellen, um die gewählte Appliance-Größe zu unterstützen.

VCF-NSX-EDGE-RCMD-CFG-002

Stellen Sie die virtuellen NSX Edge-Appliances im Standard-vSphere-Cluster der Arbeitslastdomäne bereit und nutzen Sie den Cluster für die Arbeitslasten und die Edge-Appliances gemeinsam.

Vereinfacht die Konfiguration und minimiert die Anzahl der ESXi-Hosts für die anfängliche Bereitstellung.

Arbeitslasten und NSX Edges nutzen dieselben Computing-Ressourcen.

VCF-NSX-EDGE-RCMD-CFG-003

Stellen Sie zwei NSX Edge-Appliances in einem Edge-Cluster im Standard-vSphere-Cluster der Arbeitslastdomäne bereit.

Erstellt den kleinstmöglichen NSX Edge-Cluster und erfüllt gleichzeitig die Anforderungen an die Verfügbarkeit.

Für eine VI-Arbeitslastdomäne sind möglicherweise zusätzliche Edge-Appliances erforderlich, um die Anforderungen an die gestiegene Bandbreite zu erfüllen.

VCF-NSX-EDGE-RCMD-CFG-004

Wenden Sie VM-VM-Anti-Affinitätsregeln für vSphere DRS auf die virtuellen Maschinen des NSX Edge-Clusters an.

Sorgt dafür, dass die NSX Edge-Knoten auf verschiedenen ESXi-Hosts ausgeführt werden, um Hochverfügbarkeit zu gewährleisten.

Keine.

VCF-NSX-EDGE-RCMD-CFG-005

Legen Sie in vSphere HA die Richtlinie für die Neustartpriorität für jede NSX Edge-Appliance auf „Hoch“ fest.

  • Die NSX Edge-Knoten sind Teil des Nord-Süd-Datenpfads für Overlay-Segmente. vSphere HA startet zuerst die NSX Edge-Appliances neu, um den Zeitraum zu verkürzen, während dem eine Edge-VM offline ist.

  • Wird die Neustartpriorität auf „Hoch“ gesetzt, wird die Einstellung „Höchste“ für zukünftige Anforderungen reserviert.

Wenn die Neustartpriorität für eine andere VM im Cluster auf den höchsten Wert festgelegt ist, verlängern sich die Konnektivitätsverzögerungen für Verwaltungs-Appliances.

VCF-NSX-EDGE-RCMD-CFG-006

Erstellen Sie einen NSX Edge-Cluster mit der standardmäßigen BFD-Konfiguration (Bidirectional Forwarding Detection) zwischen den NSX Edge-Knoten im Cluster.

  • Erfüllt standardmäßig die Verfügbarkeitsanforderungen.

  • Es müssen Edge-Knoten verfügbar bleiben, um Dienste wie NAT, Routing zu physischen Netzwerken und Lastausgleich zu erstellen.

Keine.

VCF-NSX-EDGE-RCMD-CFG-007

Verwenden Sie einen einzelnen N-VDS in den NSX Edge-Knoten.

  • Vereinfacht die Bereitstellung der Edge-Knoten.

  • Das gleiche N-VDS-Switch-Design kann unabhängig vom Edge-Formfaktor verwendet werden.

  • Unterstützt mehrere TEP-Schnittstellen im Edge-Knoten.

  • vSphere Distributed Switch wird im Edge-Knoten nicht unterstützt.

Keine.

Tabelle 11. Empfehlungen für das NSX Edge-Design für Stretched Cluster in VMware Cloud Foundation

Empfehlungs-ID

Designempfehlung

Begründung

Auswirkungen

VCF-NSX-EDGE-RCMD-CFG-008

Fügen Sie die NSX Edge-Appliances der VM-Gruppe für die erste Verfügbarkeitszone hinzu.

Stellen Sie sicher, dass die NSX Edge-Appliances standardmäßig auf einem Host in der primären Verfügbarkeitszone eingeschaltet sind.

Keine.

BGP-Routing-Designelemente für VMware Cloud Foundation

Tabelle 12. Anforderungen an das BGP-Routing-Design für VMware Cloud Foundation

Anforderungs-ID

Designanforderung

Begründung

Auswirkung

VCF-NSX-BGP-REQD-CFG-001

Erstellen Sie zwei VLANs, um ECMP zwischen dem Tier-0-Gateway und den Layer-3-Geräten (ToR-Switches oder Upstream-Geräte) zu aktivieren.

Die ToR-Switches oder Upstream-Layer-3-Geräte verfügen über einen SVI auf einem der beiden VLANs, und jeder Edge-Knoten im Cluster verfügt über eine Schnittstelle in jedem VLAN.

Unterstützt mehrere Equal-Cost-Routen auf dem Tier-0-Gateway und bietet höhere Ausfallsicherheit und eine bessere Bandbreitennutzung im Netzwerk.

Zusätzliche VLANs sind erforderlich.

VCF-NSX-BGP-REQD-CFG-002

Weisen Sie den VLAN-Segmenten eine benannte Teaming-Richtlinie für das Layer-3-Gerätepaar zu.

Verbindet den VLAN-Datenverkehr in jedem Segment mit der Schnittstelle seines Ziel-Edge-Knotens. Von dort aus wird der Datenverkehr an die physische Netzwerkkarte des Hosts geleitet, die mit dem zielseitigen Top-of-Rack-Switch verbunden ist.

Keine.

VCF-NSX-BGP-REQD-CFG-003

Erstellen Sie eine VLAN-Transportzone für Edge-Uplink-Datenverkehr.

Aktiviert die Konfiguration von VLAN-Segmenten auf dem N-VDS in den Edge-Knoten.

Zusätzliche VLAN-Transportzonen sind unter Umständen erforderlich, wenn die Edge-Knoten nicht mit demselben Top-of-Rack-Switch-Paar verbunden sind.

VCF-NSX-BGP-REQD-CFG-004

Stellen Sie ein Tier-1-Gateway bereit und verbinden Sie es mit dem Tier-0-Gateway.

Erstellt eine Routing-Architektur mit zwei Ebenen.

Trennt die logischen NSX-Komponenten, die mit dem physischen Datencenter interagieren, von den logischen Komponenten, die SDN-Dienste bereitstellen.

Ein Tier-1-Gateway kann nur mit einem einzelnen Tier-0-Gateway verbunden werden.

In Fällen, in denen mehrere Tier-0-Gateways erforderlich sind, müssen Sie mehrere Tier-1-Gateways erstellen.

VCF-NSX-BGP-REQD-CFG-005

Stellen Sie ein Tier-1-Gateway für den NSX Edge-Cluster bereit.

Aktiviert statusbehaftete Dienste wie Lastausgleichsdienste und NAT für SDDC-Verwaltungskomponenten.

Da ein Tier-1-Gateway immer im Aktiv/Standby-Modus arbeitet, unterstützt das Gateway statusbehaftete Dienste.

Keine.

Tabelle 13. Anforderungen an das BGP-Routing-Design für NSX Edge-Multi-Rack-Verfügbarkeit für VMware Cloud Foundation

Anforderungs-ID

Designanforderung

Begründung

Auswirkung

VCF-NSX-MRE-BGP-REQD-CFG-001

Zum Aktivieren von ECMP zwischen dem Tier-0-Gateway und den Layer-3-Geräten, wie z. B. Leaf-Switches oder Upstream-Geräten, erstellen Sie zwei separate Uplink-VLANs für die Edge-Knoten in jedem Rack.

Die Leaf-Switches oder Layer-3-Upstream-Geräte verfügen über einen SVI auf einem der beiden VLANs Rack, und jeder Edge-Knoten im Rack verfügt über eine Schnittstelle in jedem VLAN.

Unterstützt mehrere Equal-Cost-Routen auf dem Tier-0-Gateway und verbessert Ausfallsicherheit und Bandbreitennutzung im Netzwerk über mehrere Racks hinweg mit einem Leaf-Switch-Paar in jedem Rack.

Zusätzliche VLANs sind erforderlich.

VCF-NSX-MRE-BGP-REQD-CFG-002

Weisen Sie den VLAN-Segmenten eine benannte Teaming-Richtlinie für das Layer-3-Gerätepaar pro Rack zu.

Verbindet den VLAN-Datenverkehr in jedem Segment mit der Schnittstelle seines Ziel-Edge-Knotens. Von dort aus wird der Datenverkehr an die physische Netzwerkkarte des Hosts geleitet, die mit dem zielseitigen Leaf-Switch im Rack verbunden ist.

Keine.

Tabelle 14. Anforderungen an das BGP-Routing-Design für Stretched Cluster in VMware Cloud Foundation

Anforderungs-ID

Designanforderung

Begründung

Auswirkung

VCF-NSX-BGP-REQD-CFG-006

Erweitern Sie die Uplink-VLANs auf die Top-of-Rack-Switches, sodass die VLANs zwischen beiden Verfügbarkeitszonen ausgeweitet werden.

Da ein Failover der NSX Edge-Knoten zwischen den Verfügbarkeitszonen erfolgt, wird die Uplink-Konnektivität zu den Top-of-Rack-Switches in beiden Verfügbarkeitszonen unabhängig von der Zone, in der sich die NSX Edge-Knoten zurzeit befinden, sichergestellt.

Sie müssen ein ausgeweitetes Layer-2-Netzwerk mithilfe einer physischen Netzwerkinfrastruktur zwischen den Verfügbarkeitszonen konfigurieren.

VCF-NSX-BGP-REQD-CFG-007

Stellen Sie diese SVI-Konfiguration auf den Top-of-Rack-Switches bereit.

  • Konfigurieren Sie im zweiten Verfügbarkeitsbereich die Top-of-Rack-Switches oder Upstream-Layer-3-Geräte mit einem SVI auf jedem der beiden Uplink-VLANs.

  • Legen Sie den Top-of-Rack-SVI in beiden Verfügbarkeitszonen als Teil eines gemeinsamen ausgedehnten Layer-2-Netzwerks zwischen den Verfügbarkeitszonen fest.

Ermöglicht die Kommunikation der NSX Edge-Knoten mit den Top-of-Rack-Switches in beiden Verfügbarkeitszonen über dieselben Uplink-VLANs.

Sie müssen ein ausgeweitetes Layer-2-Netzwerk mithilfe der physischen Netzwerkstruktur zwischen den Verfügbarkeitszonen konfigurieren.

VCF-NSX-BGP-REQD-CFG-008

Stellen Sie die folgende VLAN-Konfiguration bereit:

  • Verwenden Sie zwei VLANs, um ECMP zwischen dem Tier-0-Gateway und den Layer-3-Geräten (Top-of-Rack-Switches) zu aktivieren.

  • Die ToR-Switches oder Upstream-Layer-3-Geräte verfügen über einen SVI zu einem der beiden VLANs, und jeder NSX Edge-Knoten hat über eine Schnittstelle zu jedem VLAN.

Unterstützt mehrere Equal-Cost-Routen auf dem Tier-0-Gateway und bietet höhere Ausfallsicherheit und eine bessere Bandbreitennutzung im Netzwerk.

  • Zusätzliche VLANs sind erforderlich.

  • Uplink-VLANs müssen zwischen Verfügbarkeitszonen ausgedehnt werden.

VCF-NSX-BGP-REQD-CFG-009

Erstellen Sie eine IP-Präfixliste, die den Zugriff auf die Routenankündigung durch das any-Netzwerk zulässt, anstatt die Standard-IP-Präfixliste zu verwenden.

Wird in einer Routenzuordnung verwendet, um einen Pfad zu einem oder mehreren autonomen Systemen (AS für Pfad voranstellen) für BGP-Nachbarn in der zweiten Verfügbarkeitszone voranzustellen.

Sie müssen manuell eine IP-Präfixliste erstellen, die mit der Standardliste identisch ist.

VCF-NSX-BGP-REQD-CFG-010

Erstellen Sie eine ausgehende Routenzuordnung, die die benutzerdefinierte IP-Präfixliste und einen Wert des Typs „AS für Pfad voranstellen“ enthält, der auf das zweimal hinzugefügte lokale Tier-0-AS festgelegt ist.

  • Wird zum Konfigurieren von Nachbarschaftsbeziehungen mit den Layer-3-Geräten in der zweiten Verfügbarkeitszone verwendet.

  • Stellen Sie sicher, dass der gesamte eingehende Datenverkehr die erste Verfügbarkeitszone durchläuft.

Sie müssen die Routenzuordnung manuell erstellen.

Die beiden NSX Edge-Knoten leiten den Nord-Süd-Datenverkehr nur dann durch die zweite Verfügbarkeitszone, wenn die Verbindung zu ihren BGP-Nachbarn in der ersten Verfügbarkeitszone unterbrochen wird, beispielsweise bei einem Ausfall des Top-of-Rack-Switch-Paars oder in der Verfügbarkeitszone.

VCF-NSX-BGP-REQD-CFG-011

Erstellen Sie eine IP-Präfixliste, die den Zugriff auf Routenankündigungen durch das Netzwerk 0.0.0.0/0 zulässt, anstatt die standardmäßige IP-Präfixliste zu verwenden.

Wird in einer Routenzuordnung verwendet, um für BGP-Nachbarn in der zweiten Verfügbarkeitszone einen lokalen Verweis auf die erlernte Standardroute zu konfigurieren.

Sie müssen manuell eine IP-Präfixliste erstellen, die mit der Standardliste identisch ist.

VCF-NSX-BGP-REQD-CFG-012

Wenden Sie eine eingehende Routenzuordnung an, die die IP-Präfixliste für die Standardroute 0.0.0.0/0 enthält, und weisen Sie der erlernten Standardroute eine niedrigere lokale Präferenz zu, z. B. 80, und allen erlernten Routen eine niedrigere lokale Präferenz, z. B. 90.

  • Wird zum Konfigurieren von Nachbarschaftsbeziehungen mit den Layer-3-Geräten in der zweiten Verfügbarkeitszone verwendet.

  • Stellt sicher, dass der gesamte ausgehende Datenverkehr durch die erste Verfügbarkeitszone fließt.

Sie müssen die Routenzuordnung manuell erstellen.

Die beiden NSX Edge-Knoten leiten den Nord-Süd-Datenverkehr nur dann durch die zweite Verfügbarkeitszone, wenn die Verbindung zu ihren BGP-Nachbarn in der ersten Verfügbarkeitszone unterbrochen wird, beispielsweise bei einem Ausfall des Top-of-Rack-Switch-Paars oder in der Verfügbarkeitszone.

VCF-NSX-BGP-REQD-CFG-013

Konfigurieren Sie die Nachbarn der zweiten Verfügbarkeitszone so, dass sie die Routenzuordnungen als Eingangs- bzw. Ausgangsfilter verwenden.

Der ein- und ausgehende Pfad der zweiten Verfügbarkeitszone wird weniger bevorzugt, da der AS-Pfad länger und die lokale Präferenz geringer ist. Dies führt dazu, dass der gesamte Datenverkehr durch die erste Zone fließt.

Die beiden NSX Edge-Knoten leiten den Nord-Süd-Datenverkehr nur dann durch die zweite Verfügbarkeitszone, wenn die Verbindung zu ihren BGP-Nachbarn in der ersten Verfügbarkeitszone unterbrochen wird, beispielsweise bei einem Ausfall des Top-of-Rack-Switch-Paars oder in der Verfügbarkeitszone.

Tabelle 15. Anforderungen an das BGP-Routing-Design für NSX-Verbund in VMware Cloud Foundation

Anforderungs-ID

Designanforderung

Begründung

Auswirkung

VCF-NSX-BGP-REQD-CFG-014

Erweitern Sie das Tier-0-Gateway auf die zweite VMware Cloud Foundation-Instanz.

  • Unterstützt ECMP-Nord-Süd-Routing auf allen Knoten im NSX Edge-Cluster.

  • Ermöglicht die Unterstützung für instanzübergreifende Tier-1-Gateways und instanzübergreifende Netzwerksegmente.

Das in der zweiten Instanz bereitgestellte Tier-0-Gateway wird entfernt.

VCF-NSX-BGP-REQD-CFG-015

Legen Sie das Tier-0-Gateway für alle VMware Cloud Foundation-Instanzen als primäres Gateway fest.

  • Im NSX-Verbund lässt ein Tier-0-Gateway ausgehenden Egress-Datenverkehr von verbundenen Tier-1-Gateways nur an seinen primären Standorten zu.

  • Lokaler eingehender und ausgehender Datenverkehr wird unabhängig auf der Tier-1-Ebene gesteuert. Es werden keine Segmente direkt für das Tier-0-Gateway bereitgestellt.

  • Eine Kombination aus Netzwerkausdehnungen (lokal für eine VMware Cloud Foundation-Instanz oder sich über mehrere Instanzen erstreckend) ist möglich, ohne dass zusätzliche Tier-0-Gateways und somit Edge-Knoten erforderlich sind.

  • Wenn ein Fehler in einer VMware Cloud Foundation-Instanz auftritt, bleibt das Netzwerk der lokalen Instanz ohne manuellen Eingriff in der anderen Instanz verfügbar.

Keine.

VCF-NSX-BGP-REQD-CFG-016

Richten Sie vom globalen Tier-0-Gateway aus BGP-Nachbar-Peering zu den mit der zweiten VMware Cloud Foundation-Instanz verbundenen ToR-Switches ein.

  • Ermöglicht das Erlernen und die Ankündigung von Routen in der zweiten VMware Cloud Foundation-Instanz.

  • Erleichtert ein potenzielles automatisiertes Failover von Netzwerken von der ersten auf die zweite VMware Cloud Foundation-Instanz.

Keine.

VCF-NSX-BGP-REQD-CFG-017

Verwenden Sie ein ausgeweitetes Tier-1-Gateway und verbinden Sie es mit dem Tier-0-Gateway für instanzübergreifende Netzwerke.

  • Ermöglicht eine Ausdehnung des Netzwerks zwischen den VMware Cloud Foundation-Instanzen, da NSX-Netzwerksegmente der Ausdehnung des Gateways folgen, mit dem sie verbunden sind.

  • Erstellt eine Routing-Architektur mit zwei Ebenen.

Keine.

VCF-NSX-BGP-REQD-CFG-018

Weisen Sie den NSX Edge-Cluster in jeder VMware Cloud Foundation-Instanz dem ausgeweiteten Tier-1-Gateway zu. Legen Sie die erste VMware Cloud Foundation-Instanz als primäre und die zweite Instanz als sekundäre Instanz fest.

  • Ermöglicht eine instanzübergreifende Netzwerkausdehnung zwischen der ersten und der zweiten VMware Cloud Foundation-Instanz.

  • Ermöglicht deterministischen eingehenden und ausgehenden Datenverkehr für das instanzübergreifende Netzwerk.

  • Wenn eine VMware Cloud Foundation-Instanz ausfällt, wird das deterministische Failover des Tier-1-Datenverkehrsflusses aktiviert.

  • Bei der Wiederherstellung der VMware Cloud Foundation-Instanz, auf die kein Zugriff möglich ist, wird das deterministische Failback des Tier-1-Datenverkehrsflusses aktiviert und somit unbeabsichtigtes asymmetrisches Routing verhindert.

  • Dadurch entfällt die Notwendigkeit, BGP-Attribute in der ersten und zweiten VMware Cloud Foundation-Instanzen zu verwenden, um Standortpräferenz und Failover zu beeinflussen.

Sie müssen Failover und Failback des instanzübergreifenden Netzwerks manuell vom Standby-NSX Global Manager aus durchführen.

VCF-NSX-BGP-REQD-CFG-019

Weisen Sie den NSX Edge-Cluster in jeder VMware Cloud Foundation-Instanz dem lokalen Tier-1-Gateway für diese VMware Cloud Foundation-Instanz zu.

  • Ermöglicht die Isolierung instanzspezifischer Netzwerke für ihre spezifischen Instanzen.

  • Ermöglicht den deterministischen Fluss des eingehenden und ausgehenden Datenverkehrs für die instanzspezifischen Netzwerke.

Sie können den Dienstrouter verwenden, der für das Tier-1-Gateway für Netzwerkdienste erstellt wurde. Eine solche Konfiguration ist jedoch für die Netzwerkkonnektivität nicht erforderlich.

VCF-NSX-BGP-REQD-CFG-020

Legen Sie jedes lokale Tier-1-Gateway nur als primär in dieser Instanz fest. Vermeiden Sie es, das Gateway in den anderen Instanzen als sekundär festzulegen.

Verhindert, dass BGP-Attribute in primären und sekundären Instanzen verwendet werden müssen, um die Ingress/Egress-Präferenz der Instanz zu beeinflussen.

Keine.

Tabelle 16. Empfehlungen für das BGP-Routing-Design für VMware Cloud Foundation

Empfehlungs-ID

Designempfehlung

Empfehlung – Begründung

Empfehlung – Auswirkung

VCF-NSX-BGP-RCMD-CFG-001

Stellen Sie ein Aktiv/Aktiv-Tier-0-Gateway bereit.

Unterstützt ECMP-Nord-Süd-Routing auf allen Edge-Knoten im NSX Edge-Cluster.

Aktiv/Aktiv-Tier-0-Gateways können keine statusbehafteten Dienste wie NAT bereitstellen.

VCF-NSX-BGP-RCMD-CFG-002

Konfigurieren Sie den BGP Keep Alive-Timer auf 4 und den Hold Down-Timer auf 12 oder niedriger zwischen den Top-of-Rack-Switches und dem Tier-0-Gateway.

Sorgt für ein Gleichgewicht zwischen der Erkennung von Fehlern zwischen den Top-of-Rack-Switches und dem Tier-0-Gateway und der Überlastung der Top-of-Rack-Switches mit Keep-Alive-Datenverkehr.

Wenn Sie Timer für längere Zeiträume verwenden, um zu erkennen, ob ein Router nicht antwortet, bleiben die Daten zu einem solchen Router länger in der Routing-Tabelle. Dies führt dazu, dass der aktive Router weiterhin Datenverkehr an einen inaktiven Router sendet.

Diese Timer müssen mit dem Fabric-Design des Datencenters Ihrer Organisation abgestimmt sein.

VCF-NSX-BGP-RCMD-CFG-003

Aktivieren Sie Graceful Restart zwischen BGP-Nachbarn nicht.

Verhindert Verlust des Datenverkehrs.

Auf dem Tier-0-Gateway sind BGP-Peers aus allen Gateways immer aktiv. Bei einem Failover erhöht die Funktion „Graceful Restart“ den Zeitraum, in dem ein Remote-Nachbar ein alternatives Tier-0-Gateway auswählt. Dies führt dazu, dass die BFD-basierte Konvergenz verzögert wird.

Keine.

VCF-NSX-BGP-RCMD-CFG-004

Aktivieren Sie den Hilfsmodus für den Graceful Restart-Modus zwischen BGP-Nachbarn.

Verhindert Verlust des Datenverkehrs.

Während eines Router-Neustarts wird die Funktion „Graceful Restart“ von Upstream-Routern im Hilfsmodus genutzt, um die Weiterleitungstabelle beizubehalten, die wiederum Pakete an einen ausgefallenen Nachbarn weiterleitet, selbst wenn die BGP-Timer abgelaufen sind, was zu Datenverkehrsverlusten führt.

Keine.

VCF-NSX-BGP-RCMD-CFG-005

Aktivieren Sie SR-übergreifendes iBGP-Routing.

Falls bei einem Edge-Knoten alle nordwärts gerichteten eBGP-Sitzungen ausfallen, fließt der Nord-Süd-Datenverkehr weiter, indem Datenverkehr an einen anderen Edge-Knoten geleitet wird.

Keine.

VCF-NSX-BGP-RCMD-CFG-006

Stellen Sie ein Tier-1-Gateway im nicht präemptiven Failover-Modus bereit.

Stellt sicher, dass ein ausgefallener NSX Edge-Transportknoten, nachdem er wieder online ist, nicht die Gateway-Dienste übernimmt und verhindert somit einen kurzzeitigen Dienstausfall.

Keine.

VCF-NSX-BGP-RCMD-CFG-007

Aktivieren Sie die Standby-Verlagerung des Tier-1-Gateways.

Stellt sicher, dass bei einem Edge-Ausfall ein Tier-1-Standby-Gateway auf einem anderen Edge-Knoten erstellt wird.

Keine.

Tabelle 17. Empfehlungen für das BGP-Routing-Designs für NSX-Verbund in VMware Cloud Foundation

Empfehlungs-ID

Designempfehlung

Begründung

Auswirkung

VCF-NSX-BGP-RCMD-CFG-008

Verwenden Sie Tier-1-Gateways, um die Ausdehnung von Netzwerken sowie den eingehenden und ausgehenden Datenverkehr in den VMware Cloud Foundation-Instanzen zu steuern.

Ermöglicht eine Kombination aus Netzwerkausdehnungen (isoliert auf eine VMware Cloud Foundation-Instanz oder mehrere Instanzen umfassend), ohne dass zusätzliche Tier-0-Gateways und somit Edge-Knoten erforderlich sind.

Zum Steuern der Standortausdehnung muss ein Tier-1-Gateway einem Edge-Cluster zugewiesen werden und verfügt daher über die Tier-1-SR-Komponente. Ost-West-Datenverkehr zwischen Tier-1-Gateways mit SRs muss einen Edge-Knoten physisch durchlaufen.

VCF-NSX-BGP-RCMD-CFG-009

Teilen Sie in jeder -Instanz ein Tier-1-Gateway für instanzspezifische Netzwerke zu und verbinden Sie es mit dem ausgeweiteten Tier-0-Gateway.

  • Erstellt eine Routing-Architektur mit zwei Ebenen.

  • Aktiviert Netzwerke der lokalen Instanz, die sich nicht zwischen den VMware Cloud Foundation-Instanzen erstrecken sollen.

  • Garantiert, dass die Netzwerke der lokalen Instanz verfügbar bleiben, wenn in einer anderen VMware Cloud Foundation-Instanz ein Fehler auftritt.

Keine.

Overlay-Designelemente für VMware Cloud Foundation

Tabelle 18. Anforderungen an das Overlay-Design für VMware Cloud Foundation

Anforderungs-ID

Designanforderung

Begründung

Auswirkung

VCF-NSX-OVERLAY-REQD-CFG-001

Konfigurieren Sie alle ESXi-Hosts in der Arbeitslastdomäne als Transportknoten in NSX.

Ermöglicht verteiltes Routing, logische Segmente und eine verteilte Firewall.

Keine.

VCF-NSX-OVERLAY-REQD-CFG-002

Konfigurieren Sie jeden ESXi-Host mithilfe von Transportknotenprofilen als Transportknoten.

  • Ermöglicht die Teilnahme von ESXi-Hosts und den auf ihnen ausgeführten virtuellen Maschinen in NSX-Overlay- und VLAN-Netzwerken.

  • Transportknotenprofile können nur auf Clusterebene angewendet werden.

Keine.

VCF-NSX-OVERLAY-REQD-CFG-003

Um virtualisierte Netzwerkfunktionen für Arbeitslasten bereitzustellen, verwenden Sie Overlay-Netzwerke mit NSX Edge-Knoten und verteiltem Routing.

  • Erstellt isolierte Broadcast-Domänen mit mehreren Mandanten über Datencenter-Fabrics hinweg, um elastische, logische Netzwerke bereitzustellen, die die Grenzen physischer Netzwerke überschreiten.

  • Ermöglicht erweiterte Bereitstellungstopologien durch Einführung der Layer-2-Abstraktion aus den Datencenter-Netzwerken.

Erfordert die Konfiguration von Transportnetzwerken mit einer MTU-Größe von mindestens 1.600 Byte.

VCF-NSX-OVERLAY-REQD-CFG-004

Erstellen Sie eine einzelne Overlay-Transportzone in der NSX-Instanz für den gesamten Overlay-Datenverkehr, der über den Host und die NSX Edge-Transportknoten der Arbeitslastdomäne oder mehrerer Arbeitslastdomänen mithilfe einer gemeinsam genutzten NSX-Instanz geleitet wird.

  • Stellt sicher, dass Overlay-Segmente mit einem NSX Edge-Knoten für Dienste und vertikales Routing verbunden sind.

  • Stellt sicher, dass alle Segmente für alle ESXi-Hosts und NSX Edge-Knoten verfügbar sind, die als Transportknoten konfiguriert sind.

Sämtliche Cluster in allen Arbeitslastdomänen, die denselben NSX Manager nutzen, verwenden auch dieselbe Overlay-Transportzone.

VCF-NSX-OVERLAY-REQD-CFG-005

Erstellen Sie ein Uplink-Profil mit einer Teaming-Richtlinie für die Lastausgleichsquelle mit zwei aktiven Uplinks für ESXi-Hosts.

Zur Verbesserung der Ausfallsicherheit und der Leistung wird die gleichzeitige Nutzung der beiden physischen Netzwerkkarten auf den ESXi-Hosts, die als Transportknoten konfiguriert sind, unterstützt.

Keine.

Tabelle 19. Anforderungen an das Overlay-Design für eine VI-Arbeitslastdomäne mit einem Computing-Cluster mit mehreren Racks für VMware Cloud Foundation

Anforderungs-ID

Designanforderung

Begründung

Auswirkung

VCF-NSX-L3MR-OVERLAY-REQD-CFG-001

Erstellen Sie ein Uplink-Profil für jedes Rack mit einer separaten Host-TEP-Transport-VLAN-ID pro Rack.

Aktiviert eine Layer-3-Begrenzung bei den Top-of-Rack-Switches für den Host-TEP-Datenverkehr.

Erfordert eine zusätzliche Host-TEP-VLAN-ID pro Rack.

VCF-NSX-L3MR-OVERLAY-REQD-CFG-002

Erstellen Sie einen Host-TEP-IP-Pool für jedes Rack mit einem pro Rack zugeteilten Subnetz und einem Gateway für das Subnetz.

  • Stellt die Host-TEP-IP-Adressierung für jedes Rack bereit

  • Aktiviert eine Layer-3-Begrenzung bei den Top-of-Rack-Switches für den Host-TEP-Datenverkehr.

  • Bietet Routing-Funktionen für die Host-TEPs zwischen Racks.

Erfordert ein zusätzliches Subnetz pro Rack.

VCF-NSX-L3MR-OVERLAY-REQD-CFG-003

Erstellen Sie Sub-Transportknotenprofile des NSX-Hosts für zusätzliche Racks.

  • Ermöglicht die Konfiguration der NSX-Host-Transportknoten pro Rack.

Keine

Tabelle 20. Empfehlungen für das Overlay-Design für VMware Cloud Foundation

Empfehlungs-ID

Designempfehlung

Begründung

Auswirkung

VCF-NSX-OVERLAY-RCMD-CFG-001

Verwenden Sie statische IP-Pools, um den TEP-Schnittstellen des Hosts IP-Adressen zuzuweisen.

  • Ein externer DHCP-Server für die Host-Overlay-VLANs wird nicht mehr benötigt.

  • Sie können NSX Manager verwenden, um die Konfigurationen statischer IP-Pools zu überprüfen.

Keine.

VCF-NSX-OVERLAY-RCMD-CFG-002

Verwenden Sie die hierarchische Zwei-Ebenen-Replizierung auf allen Overlay-Segmenten.

Die hierarchische Zwei-Ebenen-Replizierung ist effizienter, da die Anzahl der ESXi-Hosts verringert wurde, auf die der quellseitige ESXi-Host den Datenverkehr replizieren muss, wenn Hosts verschiedene TEP-Subnetze haben. Dies ist in der Regel bei mehr als einem Cluster der Fall und verbessert die Leistung in diesem Szenario.

Keine.

Tabelle 21. Empfehlungen für das Overlay-Design für Stretched Cluster in VMware Cloud Foundation

Empfehlungs-ID

Designempfehlung

Begründung

Auswirkung

VCF-NSX-OVERLAY-RCMD-CFG-003

Konfigurieren Sie ein NSX-Sub-Transportknotenprofil.

  • Sie können statische IP-Pools für die Host-TEPs in jeder Verfügbarkeitszone verwenden.

  • Das NSX-Transportknotenprofil kann angehängt bleiben, wenn zwei separate VLANs für Host-TEPs in jeder Verfügbarkeitszone verwendet werden, wie dies für Cluster erforderlich ist, die auf vSphere Lifecycle Manager-Images basieren.

  • Die Verwendung eines externen DHCP-Servers für die Host-Overlay-VLANs in beiden Verfügbarkeitszonen ist nicht erforderlich.

Änderungen an der Konfiguration des Host-Transportknotens erfolgen auf der Ebene des vSphere-Clusters.

Designelemente des virtuellen Anwendungsnetzwerks für VMware Cloud Foundation

Tabelle 22. Anforderungen an das Design des virtuellen Anwendungsnetzwerks für VMware Cloud Foundation

Anforderungs-ID

Designanforderung

Begründung

Auswirkung

VCF-NSX-AVN-REQD-CFG-001

Erstellen Sie ein instanzübergreifendes NSX-Segment für die Komponenten einer VMware Aria Suite-Anwendung oder einer anderen Lösung, die Mobilität zwischen VMware Cloud Foundation-Instanzen benötigt.

Bereitet die Umgebung für die Bereitstellung von Lösungen zusätzlich zu VMware Cloud Foundation, z. B. VMware Aria Suite, ohne eine komplexe physische Netzwerkkonfiguration vor.

Die Komponenten der VMware Aria Suite-Anwendung müssen problemlos zwischen VMware Cloud Foundation-Instanzen portierbar sein, ohne dass eine Neukonfiguration erforderlich ist.

Jedes NSX-Segment benötigt einen eindeutigen IP-Adressbereich.

VCF-NSX-AVN-REQD-CFG-002

Erstellen Sie ein oder mehrere NSX-Segmente der lokalen Instanz für die Komponenten einer VMware Aria Suite-Anwendung oder einer anderen Lösung, die einer bestimmten VMware Cloud Foundation-Instanz zugewiesen sind.

Bereitet die Umgebung für die Bereitstellung von Lösungen zusätzlich zu VMware Cloud Foundation, z. B. VMware Aria Suite, ohne eine komplexe physische Netzwerkkonfiguration vor.

Jedes NSX-Segment benötigt einen eindeutigen IP-Adressbereich.

Tabelle 23. Anforderungen an das Design des virtuellen Anwendungsnetzwerks für NSX-Verbund in VMware Cloud Foundation

Anforderungs-ID

Designanforderung

Begründung

Auswirkung

VCF-NSX-AVN-REQD-CFG-003

Erweitern Sie das instanzübergreifende NSX-Segment auf die zweite VMware Cloud Foundation-Instanz.

Ermöglicht Arbeitslastmobilität ohne eine komplexe physische Netzwerkkonfiguration.

Die Komponenten einer VMware Aria Suite-Anwendung müssen problemlos zwischen VMware Cloud Foundation-Instanzen portierbar sein, ohne dass eine Neukonfiguration erforderlich ist.

Jedes NSX-Segment benötigt einen eindeutigen IP-Adressbereich.

VCF-NSX-AVN-REQD-CFG-004

Erstellen Sie in jeder VMware Cloud Foundation-Instanz zusätzliche NSX-Segmente der lokalen Instanz.

Ermöglicht Arbeitslastmobilität innerhalb einer VMware Cloud Foundation-Instanz ohne eine komplexe physische Netzwerkkonfiguration.

Jede VMware Cloud Foundation-Instanz muss über Netzwerksegmente zur Unterstützung von Arbeitslasten verfügen, die für diese VMware Cloud Foundation-Instanz isoliert sind.

Jedes NSX-Segment benötigt einen eindeutigen IP-Adressbereich.

VCF-NSX-AVN-REQD-CFG-005

Verbinden oder migrieren Sie in jeder VMware Cloud Foundation-Instanz die NSX-Segmente der lokalen Instanz mit bzw. zu dem entsprechenden Tier-1-Gateway der lokalen Instanz.

Konfiguriert NSX-Segmente der lokalen Instanz nur auf erforderlichen Sites.

Für Segmente der lokalen Instanz ist ein eigenes Tier-1-Gateway erforderlich.

Tabelle 24. Empfehlungen für das Design des virtuellen Anwendungsnetzwerks für VMware Cloud Foundation

Empfehlungs-ID

Designempfehlung

Begründung

Auswirkung

VCF-NSX-AVN-RCMD-CFG-001

Verwenden Sie Overlay-gestützte NSX-Segmente.

  • Unterstützt die Erweiterung auf Bereitstellungstopologien für mehrere VMware Cloud Foundation-Instanzen.

  • Beschränkt die Anzahl der für das Datencenter-Fabric erforderlichen VLANs.

Bei Verwendung von Overlay-gestützten NSX-Segmenten ist Routing (eBGP empfohlen) zwischen dem Datencenter-Fabric und den Edge-Knoten erforderlich.

Elemente des Lastausgleichsdesigns für VMware Cloud Foundation

Tabelle 25. Anforderungen an das Lastausgleichsdesign für VMware Cloud Foundation

Anforderungs-ID

Designanforderung

Begründung

Auswirkung

VCF-NSX-LB-REQD-CFG-001

Stellen Sie ein eigenständiges Tier-1-Gateway bereit, um erweiterte statusbehaftete Dienste wie den Lastausgleich für andere Verwaltungskomponenten zu unterstützen.

Bietet Unabhängigkeit zwischen Nord-Süd-Tier-1-Gateways, um erweiterte Bereitstellungsszenarien zu unterstützen.

Sie müssen ein separates Tier-1-Gateway hinzufügen.

VCF-NSX-LB-REQD-CFG-002

Verbinden Sie bei der Erstellung von Lastausgleichsdiensten für virtuelle Anwendungsnetzwerke das eigenständige Tier-1-Gateway mit den instanzübergreifenden NSX-Segmenten.

Bietet Lastausgleich für Anwendungen mit verbundenem instanzübergreifenden Netzwerk.

Sie müssen das Gateway mit jedem Netzwerk verbinden, bei dem ein Lastausgleich erforderlich ist.

VCF-NSX-LB-REQD-CFG-003

Konfigurieren Sie eine statische Standardroute auf dem eigenständigen Tier-1-Gateway, mit einem nächsten Hop zum Tier-1-Gateway für das Segment, um Konnektivität zum Lastausgleichsdienst zur Verfügung zu stellen.

Da Das Tier-1-Gateway eigenständig ist, konfiguriert es seine Routen nicht automatisch.

Keine.

Tabelle 26. Anforderungen an das Lastausgleichsdesign für NSX-Verbund in VMware Cloud Foundation

Anforderungs-ID

Designanforderung

Begründung

Auswirkung

VCF-NSX-LB-REQD-CFG-004

Stellen Sie ein eigenständiges Tier-1-Gateway in der zweiten VMware Cloud Foundation-Instanz bereit.

Stellt eine nicht globale Cold-Standby-Dienstrouterinstanz für die zweite VMware Cloud Foundation-Instanz bereit, um im instanzübergreifenden Netzwerk Dienste zu unterstützen, die erweiterte Dienste benötigen, die derzeit nicht als globale NSX-Objekte unterstützt werden.

  • Sie müssen ein separates Tier-1-Gateway hinzufügen.

  • Sie müssen alle Dienste manuell konfigurieren und zwischen den nicht globalen Dienstrouterinstanzen in der ersten und zweiten VMware Cloud Foundation-Instanz synchronisieren.

  • Um einen Netzwerkkonflikt zwischen den beiden VMware Cloud Foundation-Instanzen zu vermeiden, stellen Sie sicher, dass der primäre und der Standby-Netzwerkdienst nicht gleichzeitig aktiv sind.

VCF-NSX-LB-REQD-CFG-005

Verbinden Sie das eigenständige Tier-1-Gateway in der zweiten VMware Cloud Foundation-Instanz mit dem instanzübergreifenden NSX-Segment.

Bietet Lastausgleich für Anwendungen, die mit dem instanzübergreifenden Netzwerk in der zweiten VMware Cloud Foundation-Instanz verbunden sind.

Sie müssen das Gateway mit jedem Netzwerk verbinden, bei dem ein Lastausgleich erforderlich ist.

VCF-NSX-LB-REQD-CFG-006

Konfigurieren Sie eine statische Standardroute auf dem eigenständigen Tier-1-Gateway in der zweiten VMware Cloud Foundation-Instanz mit einem nächsten Hop als Tier-1-Gateway für das Segment, mit dem es verbunden wird, um Konnektivität zu den Lastausgleichsdiensten bereitzustellen.

Das Tier-1-Gateway ist eigenständig, es konfiguriert seine Routen nicht automatisch.

Keine.

VCF-NSX-LB-REQD-CFG-007

Richten Sie einen Prozess ein, um sicherzustellen, dass alle Änderungen, die in der VMware Cloud Foundation-Instanz an der Lastausgleichsdienst-Instanz vorgenommen wurden, manuell auf den getrennten Lastausgleichsdienst in der zweiten Instanz angewendet werden.

Hält den Netzwerkdienst in der Failover-Lastausgleichsdienst-Instanz für die Aktivierung bereit, wenn in der ersten VMware Cloud Foundation-Instanz ein Fehler auftritt.

Da Netzwerkdienste nicht als globale Objekte unterstützt werden, müssen Sie sie in jeder VMware Cloud Foundation-Instanz manuell konfigurieren. Der Lastausgleichsdienst in einer Instanz muss verbunden und aktiv sein, während der Dienst in der anderen Instanz getrennt und inaktiv sein muss.

  • Aufgrund einer falschen Konfiguration zwischen den VMware Cloud Foundation-Instanzen wird der Lastausgleichsdienst in der zweiten Instanz möglicherweise mit einer ungültigen oder unvollständigen Konfiguration online geschaltet.

  • Wenn beide VMware Cloud Foundation-Instanzen gleichzeitig online und aktiv sind, kann ein Konflikt zwischen Diensten auftreten. Dies kann potenziell einen Ausfall zur Folge haben.

  • Der Administrator muss eine betriebliche Praktik einrichten und befolgen, indem er mittels eines Runbooks oder eines automatisierten Prozesses sicherstellt, dass Konfigurationsänderungen in jeder VMware Cloud Foundation-Instanz reproduziert werden.