Informieren Sie sich über die Voraussetzungen zum Aktivieren eines Supervisors mit VDS-Netzwerk und NSX Advanced Load Balancer auf drei vSphere-Clustern, die drei vSphere-Zonen zugeordnet sind. Um vSphere IaaS control plane mit dem NSX Advanced Load Balancer, auch bekannt als Avi-Load Balancer, zu konfigurieren, muss Ihre Umgebung bestimmte Anforderungen erfüllen. vSphere IaaS control plane unterstützt mehrere Topologien: ein einzelnes VDS-Netzwerk für die Avi-Dienst-Engine und die Load Balancer-Dienste, einen VDS für die Avi Management Plane und einen weiteren VDS für den NSX Advanced Load Balancer.

Arbeitslastnetzwerke

Zum Konfigurieren eines Supervisors mit dem VDS-Netzwerk-Stack müssen Sie alle Hosts aus dem Cluster mit einem VDS verbinden. Je nach der von Ihnen für den Supervisor implementierten Topologie erstellen Sie eine oder mehrere verteilte Portgruppen. Sie bestimmen die Portgruppen als Arbeitslastnetzwerke für vSphere-Namespaces.

Arbeitslastnetzwerke bieten eine Verbindung zu den Knoten von Tanzu Kubernetes Grid-Clustern, zu VMs, die über den VM-Dienst erstellt wurden, sowie zu den VMs der Supervisor-Steuerungsebene. Das Arbeitslastnetzwerk, das Konnektivität zu den Kubernetes-Steuerungsebenen-VMs bereitstellt, wird als „primäres Arbeitslastnetzwerk“ bezeichnet. Jeder Supervisor muss über ein primäres Arbeitslastnetzwerk verfügen. Sie müssen eine der verteilten Portgruppen als primäres Arbeitslastnetzwerk für den Supervisor festlegen.

Die Kubernetes-Steuerungsebenen-VMs im Supervisor verwenden drei IP-Adressen aus dem IP-Adressbereich, der dem primären Arbeitslastnetzwerk zugewiesen ist. Jeder Knoten eines Tanzu Kubernetes Grid-Clusters verfügt über eine eigene, aus dem Adressbereich des Arbeitslastnetzwerks zugewiesene IP-Adresse. Das Arbeitslastnetzwerk ist mit dem Namespace konfiguriert ist, in dem der Tanzu Kubernetes Grid-Cluster ausgeführt wird.

Netzwerkanforderungen

Der NSX Advanced Load Balancer erfordert zwei routingfähige Subnetze:
  • Das Verwaltungsnetzwerk. Der AVI-Controller, auch als Controller bezeichnet, befindet sich im Verwaltungsnetzwerk. Das Verwaltungsnetzwerk stellt dem Controller Konnektivität zum vCenter Server, zu den ESXi-Hosts und den Supervisor-Knoten der Steuerungsebene bereit. In diesem Netzwerk befindet sich die Verwaltungsschnittstelle der AVI-Dienst-Engine. Für dieses Netzwerk sind ein VDS und eine verteilte Portgruppe erforderlich.
  • Das Datennetzwerk. Die Datenschnittstelle der AVI-Dienst-Engines, auch als Dienst-Engines bezeichnet, stellt eine Verbindung zu diesem Netzwerk her. Die virtuellen IPs (VIPs) des Lastausgleichsdiensts werden von diesem Netzwerk zugewiesen. Für dieses Netzwerk sind ein VDS und verteilte Portgruppen erforderlich. Sie müssen den vDS und die Portgruppen konfigurieren, bevor Sie den Lastausgleichsdienst installieren.

Zuteilung der IP-Adressen

Der Controller und die Dienst-Engine sind mit dem Verwaltungsnetzwerk verbunden. Wenn Sie den virtuellen NSX Advanced Load Balancer installieren und konfigurieren, stellen Sie für jede Controller-VM eine statische, routingfähige IP-Adresse bereit.

Die Dienst-Engines können DHCP verwenden. Wenn DHCP nicht verfügbar ist, können Sie einen Pool von IP-Adressen für die Dienst-Engines konfigurieren.

Platzierung von vSphere-Zonen über physische Sites hinweg

Sie können vSphere-Zonen auf verschiedene physische Sites verteilen, solange die Latenz zwischen den Sites 100 ms nicht überschreitet. Sie können beispielsweise die vSphere-Zonen auf zwei physische Sites verteilen: eine vSphere-Zone auf der ersten Site und zwei vSphere-Zonen auf der zweiten Site.

Computing-Mindestanforderungen für Testzwecke

Wenn Sie die Funktionen des vSphere IaaS control plane testen möchten, können Sie die Plattform auf einem sehr minimalen Testbed bereitstellen. Sie sollten sich sicherstellen, dass ein solches Testbed nicht für die Ausführung von Arbeitslasten im Produktionsumfang geeignet ist und keine HA auf Clusterebene bereitstellt.

Tabelle 1. Computing-Mindestanforderungen für Testzwecke
System Mindestbereitstellungsgröße CPU Arbeitsspeicher Speicher
vCenter Server 8.0 Klein 2 21 GB 290 GB
vSphere-Cluster
  • 3 vSphere-Cluster
  • Aktivierung von vSphere DRS und HA auf jedem vSphere-Cluster. vSphere DRS muss sich im vollautomatischen oder teilweise automatisierten Modus befinden.
  • Unabhängige Speicher- und Netzwerkkonfiguration für jeden vSphere-Cluster.
Nicht anwendbar Nicht anwendbar Nicht anwendbar
ESXi-Hosts 8.0

Bei jedem vSphere-Cluster:

  • Ohne vSAN: 1 ESXi-Host mit 1 statischen IP-Adresse pro Host.
  • Mit vSAN: 2 ESXi-Hosts pro Cluster mit mindestens 2 physischen NICs.
Hinweis: Achten Sie darauf, dass die Namen der Hosts, die dem Cluster beitreten, Kleinbuchstaben verwenden. Andernfalls tritt bei der Aktivierung des Supervisors eventuell ein Fehler auf.
8 pro Host 64 GB pro Host Nicht anwendbar
Kubernetes-Steuerungsebenen-VMs 3 4 16 GB 16 GB
NSX Advanced Load Balancer-Controller

Enterprise

4 (Klein)

8 (Mittel)

24 (Groß)

12 GB

24 GB

128 GB

128 GB

128 GB

128 GB

Computing-Mindestanforderungen für die Produktion

In der Tabelle sind die Computing-Mindestanforderungen bei Aktivierung eines Supervisors mit VDS-Netzwerk und NSX Advanced Load Balancer in drei vSphere-Zonen aufgeführt. Es wird empfohlen, die Verwaltungs- und die Arbeitslastdomäne zu trennen. Die Arbeitslastdomäne hostet den Supervisor, in dem Sie Arbeitslasten ausführen. Die Verwaltungsdomäne hostet alle Verwaltungskomponenten wie vCenter Server.
Tabelle 2. Mindestanforderungen für Computing
System Mindestbereitstellungsgröße CPU Arbeitsspeicher Speicher
vCenter Server 8.0 Klein 2 21 GB 290 GB
vSphere-Cluster
  • 3 vSphere-Cluster
  • Aktivierung von vSphere DRS und HA auf jedem vSphere-Cluster. vSphere DRS muss sich im vollautomatischen oder teilweise automatisierten Modus befinden.
  • Unabhängige Speicher- und Netzwerkkonfiguration für jeden vSphere-Cluster.
Nicht anwendbar Nicht anwendbar Nicht anwendbar
ESXi-Hosts 8.0

Bei jedem vSphere-Cluster:

  • Ohne vSAN: 3 ESXi-Hosts mit 1 statischen IP-Adresse pro Host.
  • Mit vSAN: 4 ESXi-Hosts pro Cluster mit mindestens 2 physischen Netzwerkkarten.
Hinweis: Achten Sie darauf, dass die Namen der Hosts, die dem Cluster beitreten, Kleinbuchstaben verwenden. Andernfalls tritt bei der Aktivierung des Supervisors eventuell ein Fehler auf.
8 pro Host 64 GB pro Host Nicht anwendbar
Kubernetes-Steuerungsebenen-VMs 3 4 16 GB 16 GB
NSX Advanced Load Balancer-Controller

Enterprise

Bei Produktionsumgebungen wird empfohlen, einen Cluster mit 3 Controller-VMs zu installieren. Für HA sind mindestens 2 Dienst-Engine-VMs erforderlich.

4 (Klein)

8 (Mittel)

24 (Groß)

12 GB

24 GB

128 GB

128 GB

128 GB

128 GB

Mindestanforderungen für das Netzwerk

In der Tabelle sind die Mindestnetzwerkanforderungen bei Aktivierung eines Supervisors mit VDS-Netzwerk und NSX Advanced Load Balancer aufgeführt.
Tabelle 3. Anforderungen an das physische Netzwerk
Komponente Mindestanzahl Erforderliche Konfiguration
Layer-2-Gerät 1 Das Verwaltungsnetzwerk, das den Supervisor-Datenverkehr verarbeitet, muss sich für alle Cluster, die zum Supervisor gehören, auf demselben Layer-2-Gerät befinden. Das primäre Arbeitslastnetzwerk muss sich ebenfalls auf demselben Layer-2-Gerät befinden.
Physische Netzwerk-MTU 1500 Die MTU-Größe muss für jede verteilte Portgruppe mindestens 1500 betragen.
Tabelle 4. Allgemeine Netzwerkanforderungen
Komponente Mindestanzahl Erforderliche Konfiguration
Latenz 100 ms Die maximal empfohlene Latenz zwischen jedem Cluster, der Teil einer vSphere-Zone ist, die in einem Supervisor verbunden ist.
NTP- und DNS-Server 1 Ein DNS-Server und ein NTP-Server, die in Verbindung mit vCenter Server verwendet werden können.
Hinweis: Konfigurieren Sie NTP auf allen ESXi-Hosts und in vCenter Server.
DHCP-Server 1 Optional. Konfigurieren Sie einen DHCP-Server, um automatisch IP-Adressen für die Verwaltungs- und Arbeitslastnetzwerke sowie Floating-IP-Adressen abzurufen. Der DHCP-Server muss Clientbezeichner unterstützen und kompatible DNS-Server, DNS-Suchdomänen und einen NTP-Server bereitstellen.

Für das Verwaltungsnetzwerk werden alle IP-Adressen, wie IP-Adressen von Steuerungsebenen-VMs, eine Floating-IP-Adresse, DNS-Server, DNS, Suchdomänen und NTP-Server, automatisch vom DHCP-Server erfasst.

Die DHCP-Konfiguration wird vom Supervisor verwendet. Lastausgleichsdienste benötigen möglicherweise statische IP-Adressen für die Verwaltung. DHCP-Bereiche sollten sich nicht mit diesen statischen IPs überlappen. DHCP wird nicht für virtuelle IPs verwendet. (VIPs)

Tabelle 5. Anforderungen an das Verwaltungsnetzwerk
Komponente Mindestanzahl Erforderliche Konfiguration
Statische IPs für Kubernetes Control Plane-VMs Block mit 5 Ein Block mit 5 aufeinanderfolgenden statischen IP-Adressen, die vom Verwaltungsnetzwerk den Kubernetes-Steuerungsebenen-VMs im Supervisor zugewiesen werden.
Verwaltungsdatenverkehr-Netzwerk 1 Ein Verwaltungsnetzwerk, das zu den ESXi-Hosts, vCenter Server, dem Supervisor und einem Lastausgleichsdienst geroutet werden kann.
Verwaltungsnetzwerk-Subnetz 1

Der NSX Advanced Load Balancer-Controller, auch als Controller bezeichnet, befindet sich im Verwaltungsnetzwerk.

Hier wird auch die Verwaltungsschnittstelle der Dienst-Engine verbunden. Der Controller muss mit den vCenter Server- und ESXi-Verwaltungs-IPs aus diesem Netzwerk verbunden sein.

Hinweis: Das Verwaltungsnetzwerk und das Arbeitslastnetzwerk müssen sich in unterschiedlichen Subnetzen befinden. Das Zuweisen desselben Subnetzes zu den Verwaltungs- und Arbeitslastnetzwerken wird nicht unterstützt und kann zu Systemfehlern und Problemen führen.
Tabelle 6. Anforderungen an das Arbeitslastnetzwerk
Komponente Mindestanzahl Erforderliche Konfiguration
vSphere Distributed Switch 1 Alle Hosts aus allen drei vSphere-Clustern müssen mit einem VDS verbunden sein.
Arbeitslastnetzwerke 1 Mindestens eine verteilte Portgruppe muss auf dem VDS erstellt werden, den Sie als primäres Arbeitslastnetzwerk konfigurieren. Je nach der gewählten Topologie können Sie dieselbe verteilte Portgruppe verwenden wie für das Arbeitslastnetzwerk der Namespaces oder mehrere Portgruppen erstellen und sie als Arbeitslastnetzwerke konfigurieren. Arbeitslastnetzwerke müssen die folgenden Anforderungen erfüllen:
  • Routing-Fähigkeit zwischen einem beliebigen Arbeitslastnetzwerk und dem vom NSX Advanced Load Balancer für die Zuteilung von virtuellen IPs verwendeten Netzwerk.
  • Keine Überschneidung von IP-Adressen über alle Arbeitslastnetzwerke innerhalb eines Supervisors hinweg.
CIDR-Bereich für Kubernetes-Dienste /16 private IP-Adressen Ein privater CIDR-Bereich für die Zuweisung von IP-Adressen zu Kubernetes-Diensten. Sie müssen für jeden Supervisor einen eindeutigen CIDR-Bereich für Kubernetes-Dienste angeben.
Tabelle 7. Netzwerkanforderungen für den Lastausgleichsdienst
NTP- und DNS-Server 1 Die DNS-Server-IP ist erforderlich, damit der NSX Advanced Load Balancer-Controller die vCenter Server- und ESXi-Hostnamen korrekt auflösen kann. NTP ist optional, da öffentliche NTP-Server standardmäßig verwendet werden.
Datennetzwerksubnetz 1 Die Datenschnittstelle der Dienst-Engines, auch als Dienst-Engines bezeichnet, stellt eine Verbindung zu diesem Netzwerk her. Konfigurieren Sie einen Pool von IP-Adressen für die Dienst-Engines. Die virtuellen IPs (VIPs) des Lastausgleichsdiensts werden von diesem Netzwerk zugewiesen.
NSX Advanced Load Balancer-Controller-IPs 1 oder 4 Wenn Sie den NSX Advanced Load Balancer-Controller als einzelnen Knoten bereitstellen, ist eine statische IP-Adresse für seine Verwaltungsschnittstelle erforderlich.

Für einen Cluster mit 3 Knoten sind 4 IP-Adressen erforderlich. Eine für jede Controller-VM und eine für die Cluster-VIP. Diese IPs müssen aus dem Subnetz des Verwaltungsnetzwerks stammen.

VIP-IPAM-Bereich -

Ein privater CIDR-Bereich für die Zuweisung von IP-Adressen zu Kubernetes-Diensten. Die IPs müssen aus dem Subnetz des Datennetzwerks stammen. Sie müssen für jeden Supervisor-Cluster einen eindeutigen CIDR-Bereich für Kubernetes-Dienste angeben.

Ports und Protokolle

Diese Tabelle enthält die Protokolle und Ports, die für die Verwaltung der IP-Konnektivität zwischen dem NSX Advanced Load Balancer, vCenter Server und anderen vSphere IaaS control plane-Komponenten erforderlich sind.

Quelle Ziel Protokoll und Ports
NSX Advanced Load Balancer-Controller NSX Advanced Load Balancer-Controller (im Cluster)

TCP 22 (SSH)

TCP 443 (HTTPS)

TCP 8443 (HTTPS)

Dienst-Engine Dienst-Engine in HA

TCP 9001 für VMware, LSC und NSX-T Cloud

Dienst-Engine NSX Advanced Load Balancer-Controller

TCP 22 (SSH)

TCP 8443 (HTTPS)

UDP 123 (NTP)

NSX Advanced Load Balancer-Controller vCenter Server, ESXi, NSX-T Manager TCP 443 (HTTPS)
Supervisor-Steuerungsebenenknoten (AKO) NSX Advanced Load Balancer-Controller TCP 443 (HTTPS)

Weitere Informationen zu Ports und Protokollen für den NSX Advanced Load Balancer finden Sie unter https://ports.esp.vmware.com/home/NSX-Advanced-Load-Balancer.