Um vSphere with Tanzu mit dem NSX Advanced Load Balancer, auch bekannt als Avi-Load Balancer, zu konfigurieren, muss Ihre Umgebung bestimmte Anforderungen erfüllen. vSphere with Tanzu unterstützt mehrere Topologien für Avi-Netzwerke: ein einzelnes vDS-Netzwerk für die Avi-Dienst-Engine und die Load Balancer-Dienste, einen vDS für die Avi-Managementebene und einen weiteren vDS für den NSX Advanced Load Balancer.

Arbeitslastnetzwerke

Zum Konfigurieren eines Supervisor-Clusters mit dem vSphere-Netzwerk-Stack müssen Sie alle Hosts aus dem Cluster mit einem vSphere Distributed Switch verbinden. Je nach der von Ihnen für den Supervisor-Cluster implementierten Topologie erstellen Sie eine oder mehrere verteilte Portgruppen. Sie bestimmen die Portgruppen als Arbeitslastnetzwerke für vSphere-Namespaces.

Bevor Sie einen Host zu einem Supervisor-Cluster hinzufügen, müssen Sie ihn zu allen vSphere Distributed Switches hinzufügen, die Teil des Clusters sind.

Arbeitslastnetzwerke bieten eine Verbindung zu den Knoten von Tanzu Kubernetes-Clustern und zu den VMs der Supervisor-Cluster Control Plane. Das Arbeitslastnetzwerk, das Konnektivität zu den Kubernetes-Steuerungsebenen-VMs bereitstellt, wird als „primäres Arbeitslastnetzwerk“ bezeichnet. Jeder Supervisor-Cluster muss über ein primäres Arbeitslastnetzwerk verfügen. Sie müssen eine der verteilten Portgruppen als primäres Arbeitslastnetzwerk für den Supervisor-Cluster festlegen.

Die Kubernetes-Steuerungsebenen-VMs im Supervisor-Cluster verwenden drei IP-Adressen aus dem IP-Adressbereich, der dem primären Arbeitslastnetzwerk zugewiesen ist. Jeder Knoten eines Tanzu Kubernetes-Clusters verfügt über eine eigene, aus dem Adressbereich des Arbeitslastnetzwerks zugewiesene IP-Adresse. Das Arbeitslastnetzwerk ist mit dem Namespace konfiguriert ist, in dem der Tanzu Kubernetes-Cluster ausgeführt wird.

Netzwerkanforderungen

Der NSX Advanced Load Balancer erfordert zwei routingfähige Subnetze:
  • Das Verwaltungsnetzwerk. Der AVI-Controller, auch als Controller bezeichnet, befindet sich im Verwaltungsnetzwerk. Das Verwaltungsnetzwerk stellt dem Controller Konnektivität zum vCenter Server, zu den ESXi-Hosts und den Supervisor-Cluster-Knoten der Steuerungsebene bereit. In diesem Netzwerk befindet sich die Verwaltungsschnittstelle der AVI-Dienst-Engine. Dieses Netzwerk erfordert einen vSphere Distributed Switch (vDS) und eine verteilte Portgruppe.
  • Das Datennetzwerk. Die Datenschnittstelle der AVI-Dienst-Engines, auch als Dienst-Engines bezeichnet, stellt eine Verbindung zu diesem Netzwerk her. Die virtuellen IPs (VIPs) des Lastausgleichsdiensts werden von diesem Netzwerk zugewiesen. Dieses Netzwerk erfordert einen vSphere Distributed Switch (vDS) und verteilte Portgruppen. Sie müssen den vDS und die Portgruppen konfigurieren, bevor Sie den Lastausgleichsdienst installieren.

Zuteilung der IP-Adressen

Der Controller und die Dienst-Engine sind mit dem Verwaltungsnetzwerk verbunden. Wenn Sie den virtuellen NSX Advanced Load Balancer installieren und konfigurieren, stellen Sie für jede Controller-VM eine statische, routingfähige IP-Adresse bereit.

Die Dienst-Engines können DHCP verwenden. Wenn DHCP nicht verfügbar ist, können Sie einen Pool von IP-Adressen für die Dienst-Engines konfigurieren.

Weitere Informationen finden Sie unter Konfigurieren eines Standard-Gateways.

Mindestanforderungen für Computing

In der Tabelle sind die Mindestanforderungen für Computing für vSphere-Netzwerke mit NSX Advanced Load Balancer aufgelistet.
Vorsicht: Deaktivieren Sie nach der Konfiguration des Supervisor-Cluster nicht vSphere DRS. Die ständige Aktivierung von DRS ist eine obligatorische Voraussetzung für die Ausführung von Arbeitslasten auf dem Supervisor-Cluster. Das Deaktivieren von DRS führt zu einem Ausfall Ihrer Tanzu Kubernetes-Cluster.
Tabelle 1. Mindestanforderungen für Computing
System Mindestbereitstellungsgröße CPU Arbeitsspeicher Speicher
vCenter Server 7.0, 7.0.2, 7.0.3 Klein 2 16 GB 290 GB
ESXi-Hosts 7.0 3 ESXi-Hosts mit 1 statischer IP-Adresse pro Host.

Bei Verwendung von vSAN: 3 ESXi-Hosts mit mindestens zwei physischen Netzwerkkarten sind erforderlich. Während der Durchführung von Patches und Upgrades werden zu Stabilitätszwecken jedoch 4 ESXi-Hosts empfohlen.

Die Hosts müssen in einem Cluster mit aktiviertem vSphere DRS und HA verbunden sein. vSphere DRS muss sich im vollautomatischen oder teilweise automatisierten Modus befinden.
Hinweis: Achten Sie darauf, dass die Namen der Hosts, die dem Cluster beitreten, Kleinbuchstaben verwenden. Andernfalls schlägt die Aktivierung des Clusters für die Arbeitslastverwaltung fehl.
8 64 GB pro Host Nicht anwendbar
Kubernetes-Steuerungsebenen-VMs 3 4 16 GB 16 GB
AVI-Controller

Essentials

Enterprise

Hinweis: Für kleinere Bereitstellungen können Sie den Controller der Essentials-Größe als einzelnen Controller-Knoten bereitstellen. Sie können einen AVI-Controller-Cluster erstellen, der jedoch keine Leistungsvorteile bietet und den Zweck einer niedrigen Ressourcennutzung umgeht. In diesem Fall können Sie eine Remote-Sicherung für die Notfallwiederherstellung verwenden. Diese Größe darf nur mit dem Avi Essentials-Lizenzierungsmodus verwendet werden und ist auf 50 virtuelle Dienste und 10 Dienst-Engines beschränkt

Für Produktionsumgebungen wird empfohlen, einen Cluster mit 3 AVI-Controller-VMs zu installieren. Für HA sind mindestens 2 Dienst-Engine-VMs erforderlich.

4

8

12 GB

24 GB

128 GB

128 GB

Dienst-Engine Für HA sind mindestens 2 Dienst-Engine-VMs erforderlich. 1 2 GB 15 GB

Mindestanforderungen für das Netzwerk

In der Tabelle sind die Mindestnetzwerkanforderungen für vSphere-Netzwerke mit NSX Advanced Load Balancer aufgelistet.
Hinweis: Sie können weder IPv6-Cluster mit einem vSphere 7- Supervisor-Cluster erstellen noch IPv6-Cluster mit Tanzu Mission Control registrieren. NSX Advanced Load Balancer-Dienste bieten derzeit keine Unterstützung für IPv6.
Tabelle 2. Mindestanforderungen für das Netzwerk
Komponente Mindestanzahl Erforderliche Konfiguration
Statische IPs für Kubernetes Control Plane-VMs Block mit 5 Ein Block mit 5 aufeinanderfolgenden statischen IP-Adressen, die vom Verwaltungsnetzwerk den Kubernetes-Steuerungsebenen-VMs im Supervisor-Cluster zugewiesen werden.
Verwaltungsdatenverkehr-Netzwerk 1 Ein Verwaltungsnetzwerk, das zu den ESXi-Hosts, vCenter Server, dem Supervisor-Cluster und einem Lastausgleichsdienst geroutet werden kann. Das Netzwerk muss in der Lage sein, auf eine Image-Registrierung zuzugreifen, und benötigt eine Internetverbindung, wenn sich die Image-Registrierung im externen Netzwerk befindet. Die Image-Registrierung muss über DNS ausgelöst werden können.
vSphere Distributed Switch 7.0 oder höher 1 Alle Hosts aus dem Cluster müssen mit einem vSphere Distributed Switch verbunden sein.
Arbeitslastnetzwerke 1 Mindestens eine verteilte Portgruppe muss auf dem vSphere Distributed Switch erstellt werden, den Sie als primäres Arbeitslastnetzwerk konfigurieren. Je nach der gewählten Topologie können Sie dieselbe verteilte Portgruppe verwenden wie für das Arbeitslastnetzwerk der Namespaces oder mehrere Portgruppen erstellen und sie als Arbeitslastnetzwerke konfigurieren. Arbeitslastnetzwerke müssen die folgenden Anforderungen erfüllen:
  • Arbeitslastnetzwerke, die für Datenverkehr im Tanzu Kubernetes-Cluster verwendet werden, müssen zwischen einander und vom/zum primären Arbeitslastnetzwerk des Supervisor-Clusters geroutet werden können.
  • Routing-Fähigkeit zwischen einem beliebigen Arbeitslastnetzwerk und dem vom NSX Advanced Load Balancer für die Zuteilung von virtuellen IPs verwendeten Netzwerk.
  • Keine Überschneidung von IP-Adressen über alle Arbeitslastnetzwerke innerhalb eines Supervisor-Clusters hinweg.
NTP- und DNS-Server 1 Ein DNS-Server und ein NTP-Server, die in Verbindung mit vCenter Server verwendet werden können.
Hinweis: Konfigurieren Sie NTP auf allen ESXi-Hosts und in vCenter Server.
DHCP-Server 1 Optional. Konfigurieren Sie einen DHCP-Server, um automatisch IP-Adressen für die Verwaltungs- und Arbeitslastnetzwerke sowie Floating-IP-Adressen abzurufen. Der DHCP-Server muss Clientbezeichner unterstützen und kompatible DNS-Server, DNS-Suchdomänen und einen NTP-Server bereitstellen.

Für das Verwaltungsnetzwerk werden alle IP-Adressen, wie IP-Adressen von Steuerungsebenen-VMs, eine Floating-IP-Adresse, DNS-Server, DNS, Suchdomänen und NTP-Server, automatisch vom DHCP-Server erfasst.

Die DHCP-Konfiguration wird vom Supervisor-Cluster verwendet. Lastausgleichsdienste benötigen möglicherweise statische IP-Adressen für die Verwaltung. DHCP-Bereiche sollten sich nicht mit diesen statischen IPs überlappen. DHCP wird nicht für virtuelle IPs verwendet. (VIPs)

Verwaltungsnetzwerk-Subnetz 1

Der AVI-Controller, auch als Controller bezeichnet, befindet sich im Verwaltungsnetzwerk.

Hier wird auch die Verwaltungsschnittstelle der Dienst-Engine verbunden. Der AVI-Controller muss mit den vCenter Server- und ESXi-Verwaltungs-IPs aus diesem Netzwerk verbunden sein.

Hinweis: Das Verwaltungsnetzwerk und das Arbeitslastnetzwerk müssen sich in unterschiedlichen Subnetzen befinden. Das Zuweisen desselben Subnetzes zu den Verwaltungs- und Arbeitslastnetzwerken wird nicht unterstützt und kann zu Systemfehlern und Problemen führen.
Datennetzwerksubnetz 1 Die Datenschnittstelle der AVI-Dienst-Engines, auch als Dienst-Engines bezeichnet, stellt eine Verbindung zu diesem Netzwerk her. Konfigurieren Sie einen Pool von IP-Adressen für die Dienst-Engines. Die virtuellen IPs (VIPs) des Lastausgleichsdiensts werden von diesem Netzwerk zugewiesen.
Physische Netzwerk-MTU 1500 Die MTU-Größe muss für jede vSphere Distributed Switch-Portgruppe mindestens 1500 betragen.
CIDR-Bereich für vSphere Pods /24 private IP-Adressen Ein privater-CIDR-Bereich, der IP-Adressen für vSphere-Pods bereitstellt.
AVI-Controller-IPs 1 oder 4 Wenn Sie den AVI-Controller als einzelnen Knoten bereitstellen, ist eine statische IP-Adresse für seine Verwaltungsschnittstelle erforderlich.

Für einen Cluster mit 3 Knoten sind 4 IP-Adressen erforderlich. Eine für jede AVI-Controller-VM und eine für die Cluster-VIP. Diese IPs müssen aus dem Subnetz des Verwaltungsnetzwerks stammen.

VIP-IPAM-Bereich -

Ein privater CIDR-Bereich für die Zuweisung von IP-Adressen zu Kubernetes-Diensten. Die IPs müssen aus dem Subnetz des Datennetzwerks stammen. Sie müssen für jeden Supervisor-Cluster einen eindeutigen CIDR-Bereich für Kubernetes-Dienste angeben.

NTP- und DNS-Server 1

Die DNS-Server-IP ist erforderlich, damit der AVI-Controller die vCenter Server- und ESXi-Hostnamen korrekt auflösen kann.

NTP ist optional, da öffentliche NTP-Server standardmäßig verwendet werden.

Ports und Protokolle

Diese Tabelle enthält die Protokolle und Ports, die für die Verwaltung der IP-Konnektivität zwischen dem NSX Advanced Load Balancer, vCenter und anderen vSphere with Tanzu-Komponenten erforderlich sind.

Quelle Ziel Protokoll und Ports
AVI-Controller AVI-Controller (im Cluster)

TCP 22 (SSH)

TCP 443 (HTTPS)

TCP 8443 (HTTPS)

Dienst-Engine Dienst-Engine in HA

TCP 9001 für VMware, LSC und NSX-T Cloud

Dienst-Engine AVI-Controller

TCP 22 (SSH)

TCP 8443 (HTTPS)

UDP 123 (NTP)

AVI-Controller vCenter Server, ESXi, NSX-T Manager TCP 443 (HTTPS)
Supervisor-Steuerungsebenenknoten (AKO) AVI-Controller TCP 443 (HTTPS)

Weitere Informationen zu Ports und Protokollen für den NSX Advanced Load Balancer finden Sie unter https://ports.esp.vmware.com/home/NSX-Advanced-Load-Balancer.