Bevor Sie die Tanzu CLI oder die Installationsprogramm-Schnittstelle verwenden können, um einen Verwaltungscluster bereitzustellen, müssen Sie Ihre vSphere Umgebung vorbereiten. Sie müssen sicherstellen, dass vSphere die allgemeinen Anforderungen erfüllt, und die Basisimage-Vorlagen importieren, aus denen Tanzu Kubernetes Grid Clusterknoten-VMs erstellt. Jede Basisimage-Vorlage enthält eine Version eines Maschinenbetriebssystems und eine Version von Kubernetes.
kubectl
. Weitere Informationen finden Sie unter Installieren der Tanzu CLI und Kubernetes-CLI für die Verwendung mit eigenständigen Verwaltungsclustern.
tanzu
, kubectl
und andere Befehle ausführen.vsphere-zones.yaml
, die die Objekte FailureDomain
und DeploymentZone
der Zonen definiert.
FailureDomain
- und DeploymentZone
-Objekten in Kubernetes unter Ausführen von Clustern über mehrere Verfügbarkeitszonen hinweg beschrieben.Ein vSphere-Netzwerk* mit:
VSPHERE_CONTROL_PLANE_ENDPOINT
. Wenn Sie NSX Advanced Load Balancer für Ihren Steuerungsebenen-Endpoint verwenden, lassen Sie die Adresse automatisch aus einem Adresspool festlegen.CLUSTER_API_SERVER_PORT
oder für Umgebungen mit NSX Advanced Load Balancer die Variable VSPHERE_CONTROL_PLANE_ENDPOINT_PORT
beim Bereitstellen des Clusters fest.~/.config/tanzu/tkg/bom/
und ihr Name enthält die Tanzu Kubernetes Grid-Version, wie z. B. tkg-bom-v2.3.1+vmware.1.yaml
für v2.3.1.date
aus, um die Zeitzoneneinstellungen anzuzeigen.esxcli system time set
aus.NSX Advanced Load Balancer (ALB) in Ihrer vSphere-Instanz installiert, wenn Sie NSX ALB als Lastausgleichsdienst und den Endpoint-Anbieter für HA der Steuerungsebene verwenden möchten. Weitere Informationen finden Sie unter Installation von NSX Advanced Load Balancer.
Wenn in Ihrer vSphere-Umgebung VMware NSX ausgeführt wird, können Sie bei der Bereitstellung von Verwaltungsclustern die NSX-Schnittstellen verwenden. Stellen Sie sicher, dass Ihr NSX-Setup ein Segment enthält, in dem DHCP aktiviert ist. Stellen Sie sicher, dass NTP auf allen ESXi-Hosts, auf vCenter Server und auf der Bootstrap-Maschine konfiguriert ist.
Informationen zur Installation ohne Zugriff auf externe Netzwerke finden Sie unter Vorbereitung einer Umgebung mit Internetbeschränkung.
In der folgenden Tabelle werden Beispiele für die Dimensionierung von Verwaltungsclustern in vSphere beschrieben. Verwenden Sie diese Daten als Richtlinie, um sicherzustellen, dass Ihr Verwaltungscluster für die Anzahl der Arbeitslastcluster skaliert ist, die Sie bereitstellen möchten. In der Spalte Größe der Arbeitslastcluster-VMwerden die VM-Größen aufgelistet, die für die Beispiele in der Spalte Kann verwalten… verwendet wurden.
Verwaltungscluster Plan | Größe der Verwaltungscluster-VM | Kann verwalten… | Größe der Arbeitslastcluster-VM |
---|---|---|---|
3 Knoten der Steuerungsebene und 3 Worker-Knoten | Knoten der Steuerungsebene:
Worker-Knoten:
|
Beispiele:
|
Knoten der Steuerungsebene:
Worker-Knoten:
|
3 Knoten der Steuerungsebene und 3 Worker-Knoten | Knoten der Steuerungsebene:
Worker-Knoten:
|
Beispiel: Ein Arbeitslastcluster, der mit 3 Steuerungsebenen- und 500 Worker-Knoten bereitgestellt wird | Knoten der Steuerungsebene:
Worker-Knoten:
|
3 Knoten der Steuerungsebene und 3 Worker-Knoten | Knoten der Steuerungsebene:
Worker-Knoten:
|
Beispiel: 200 Arbeitslastcluster, wobei jeder Cluster mit 3 Steuerungsebenen- und 5 Worker-Knoten bereitgestellt wird | Knoten der Steuerungsebene:
Worker-Knoten:
|
Weitere Informationen finden Sie nachstehend unter VM-Mindestgrößen für Clusterknoten.
Auf vSphere 8 enthält die vSphere with Tanzu-Funktion einen Supervisor, den Sie als Verwaltungscluster für Tanzu Kubernetes Grid verwenden können. Das bedeutet, dass Sie unter vSphere 8 nicht tanzu management-cluster create
oder tanzu mc create
verwenden müssen, um einen Verwaltungscluster bereitzustellen, wenn vSphere with Tanzu und der Supervisor aktiviert sind. Die Bereitstellung eines Tanzu Kubernetes Grid-Verwaltungsclusters in vSphere 8 wird unterstützt, wenn vSphere with Tanzu nicht aktiviert ist. Die bevorzugte Option besteht jedoch darin, vSphere with Tanzu zu aktivieren und wenn möglich den integrierten Supervisor-Cluster zu verwenden. Der vSphere with Tanzu Supervisor ist eng in vSphere integriert und bietet somit eine optimierte Benutzererfahrung im Vergleich zu einem eigenständigen Verwaltungscluster. Die Verwendung eines eigenständigen Verwaltungsclusters auf vSphere bietet jedoch mehr Konfigurations- und Anpassungsoptionen als ein Supervisor.
WichtigDie Versionen der Tanzu CLI, die mit TKG 2.x und mit dem vSphere with Tanzu Supervisor in vSphere 8 kompatibel sind, sind nicht mit dem Supervisor-Cluster in vSphere 7 kompatibel. Um die Tanzu CLI mit einem vSphere with Tanzu Supervisor-Cluster auf vSphere 7 zu verwenden, verwenden Sie die Tanzu CLI-Version von TKG v1.6. Um die Versionen von Tanzu CLI zu verwenden, die mit TKG 2.x mit Supervisor kompatibel sind, führen Sie ein Upgrade auf vSphere 8 durch. Sie können einen eigenständigen TKG 2.x-Verwaltungscluster auf vSphere 7 bereitstellen, wenn der vSphere with Tanzu Supervisor-Cluster nicht vorhanden ist. Informationen zur Kompatibilität zwischen der Tanzu CLI und VMware-Produkten finden Sie in der Tanzu CLI-Dokumentation.
Die Tanzu CLI funktioniert sowohl mit Verwaltungsclustern, die über vSphere with Tanzu bereitgestellt werden, als auch mit eigenständigen Verwaltungsclustern, die von Tanzu Kubernetes Grid in Azure, Amazon Web Services (AWS) und vSphere bereitgestellt werden, wenn vSphere with Tanzu nicht aktiviert ist. So können Sie Arbeitslastcluster in mehreren Infrastrukturen mit einem einzigen Tool bereitstellen und verwalten. Informationen zur Verwendung der Tanzu CLI mit einem Supervisor finden Sie unter Verbinden der Tanzu CLI mit dem Supervisor in Erstellen und Verwalten von TKG 2.3-Arbeitslastclustern mit der Tanzu CLI.
Informationen zur vSphere with Tanzu-Funktion in vSphere 8 finden Sie in der Dokumentation zu vSphere with Tanzu 8.0.
HinweisIn Azure VMware Solution können Sie keinen Supervisor-Cluster erstellen und müssen einen Verwaltungscluster bereitstellen, um
tanzu
-Befehle auszuführen.
Jeder Verwaltungs- und Arbeitslastcluster, den Sie in vSphere bereitstellen, benötigt eine statische virtuelle IP-Adresse für externe Anforderungen an den API-Server des Clusters. Sie müssen diese IP-Adresse zuweisen können, d. h. sie darf nicht in Ihrem DHCP-Bereich liegen, sondern muss sich im selben Subnetz wie der DHCP-Bereich befinden.
Der Kube-Vip-Pod der Steuerungsebene des Clusters verwendet diese statische virtuelle IP-Adresse, um API-Anforderungen zu verarbeiten. Das API-Serverzertifikat enthält die Adresse zum Aktivieren der sicheren TLS-Kommunikation. In Arbeitslastclustern wird Kube-Vip in einem einfachen Layer-2-Failover-Modus ausgeführt und weist die virtuelle IP-Adresse jeweils einem Steuerungsebenenknoten zu. In diesem Modus fungiert Kube-Vip nicht als echter Lastausgleichsdienst für den Datenverkehr der Steuerungsebene.
Tanzu Kubernetes Grid kann Kube-Vip als Lastausgleichsdienst für Arbeitslasten in Arbeitslastclustern verwenden (Tech Preview). Kube-VIP kann nicht als LoadBalancer
-Dienst auf Windows-basierten Clustern verwendet werden. Weitere Informationen finden Sie unter Kube-VIP-Lastausgleichsdienst.
Verwenden Sie für den Lastausgleich von Arbeitslasten in vSphere NSX Advanced Load Balancer, auch bekannt als Avi Load Balancer, Essentials Edition.
WichtigUm unter vSphere 8 NSX Advanced Load Balancer mit einem eigenständigen TKG-Verwaltungscluster und dessen Arbeitslastclustern zu verwenden, benötigen Sie NSX ALB v22.1.2 oder höher und TKG v2.1.1 oder höher.
Bevor Sie einen Cluster in vSphere bereitstellen können, müssen Sie in vSphere eine Basisimage-Vorlage importieren, die die Betriebssystem- und Kubernetes-Versionen enthält, unter denen die Clusterknoten ausgeführt werden. Für jedes unterstützte Paar von Betriebssystem- und Kubernetes-Versionen veröffentlicht VMware eine Basisimage-Vorlage im OVA-Format, um Cluster in vSphere bereitzustellen. Nachdem Sie die OVA in vSphere importiert haben, müssen Sie die resultierende VM in eine VM-Vorlage konvertieren.
Die unterstützten Basisimages für Clusterknoten hängen wie folgt vom Clustertyp ab:
Verwaltungscluster: OVA muss über Kubernetes v1.26.8 verfügen, die Standardversion für Tanzu Kubernetes Grid v2.3.1. Es muss also eine der folgenden Versionen sein:
Ubuntu v20.04 Kubernetes v1.26.8 OVA
HinweisIn Tanzu Kubernetes Grid v2.3.1 verwendet das Ubuntu-OVA-Image den Unified Extensible Firmware Interface (UEFI)-Startmodus.
Photon v3 Kubernetes v1.26.8-OVA
Eine benutzerdefinierte OVA mit einem benutzerdefinierten Tanzu Kubernetes-Release (TKr), wie unter Erstellen von Maschinen-Images beschrieben.
So importieren Sie eine Basisimage-Vorlage in vSphere:
Laden Sie eine Tanzu Kubernetes Grid-OVA für die Clusterknoten herunter. Für den Verwaltungscluster muss dies einer der Downloads für Kubernetes v1.26.8 OVA sein.
WichtigStellen Sie sicher, dass Sie die neuesten OVA-Basisimage-Vorlagen, wenn Sicherheits-Patch-Versionen vorhanden sind.
Aktualisierte Basisimage-Vorlagen, die Sicherheits-Patches enthalten, finden Sie auf der Produktdownloadseite von Tanzu Kubernetes Grid.
Klicken Sie im vSphere Client mit der rechten Maustaste auf ein Objekt in der vCenter Server-Bestandsliste und wählen Sie OVF-Vorlage bereitstellen (Deploy OVF template) aus.
Folgen Sie den Eingabeaufforderungen des Installationsprogramms, um eine VM aus der OVA bereitzustellen.
HinweisWenn Sie Thick Provisioning als Festplattenformat auswählen, wird bei der Erstellung von Clusterknoten-VMs aus der Vorlage durch Tanzu Kubernetes Grid die volle Größe der Festplatte jedes Knotens reserviert. Dadurch kann schnell Speicherplatz verbraucht werden, wenn Sie viele Cluster oder Cluster mit vielen Knoten bereitstellen. Wenn Sie jedoch Thin Provisioning auswählen, kann dies bei der Bereitstellung von Clustern einen falschen Eindruck von der verfügbaren Speichermenge vermitteln. Wenn Sie Thin Provisioning auswählen, ist zum Zeitpunkt der Bereitstellung von Clustern möglicherweise genügend Speicherplatz verfügbar, aber der Speicherplatz wird möglicherweise knapp, wenn die Cluster ausgeführt werden und Daten anfallen.
Wenn die OVA-Bereitstellung abgeschlossen ist, klicken Sie mit der rechten Maustaste auf die VM und wählen Sie Vorlage (Template) > In Vorlage konvertieren (Convert to Template) aus.
WichtigSchalten Sie die VM nicht ein, bevor Sie sie in eine Vorlage konvertiert haben.
Klicken Sie in der Ansicht VMs und Vorlagen (VMs and Templates) mit der rechten Maustaste auf die neue Vorlage, wählen Sie Berechtigung hinzufügen (Add permission) aus und weisen Sie der Vorlage den tkg-user
mit der Rolle TKG
zu.
Informationen zum Erstellen des Benutzers und der Rolle für Tanzu Kubernetes Grid finden Sie unten unter Erforderliche Berechtigungen für das vSphere-Konto.
Wiederholen Sie den Vorgang für jede Kubernetes-Version, für die Sie die OVA-Datei heruntergeladen haben.
Das vCenter Single Sign On-Konto, das Sie für Tanzu Kubernetes Grid bei der Bereitstellung eines Verwaltungsclusters bereitstellen, muss über die richtigen Berechtigungen verfügen, um die erforderlichen Vorgänge in vSphere durchführen zu können.
Es wird nicht empfohlen, ein vSphere-Administratorkonto für Tanzu Kubernetes Grid anzugeben, da dadurch für Tanzu Kubernetes Grid wesentlich mehr Berechtigungen als erforderlich bereitgestellt werden. Die beste Möglichkeit, Tanzu Kubernetes Grid Berechtigungen zuzuweisen, besteht darin, eine Rolle und ein Benutzerkonto zu erstellen und dann diesem Benutzerkonto diese Rolle für vSphere-Objekte zu gewähren.
HinweisWenn Sie Arbeitslastcluster in vSphere 7 oder 8 bereitstellen und vSphere with Tanzu aktiviert ist, müssen Sie zusätzlich zu den unten aufgeführten Berechtigungen die Berechtigung Global > Cloud-Admin festlegen. Wenn Sie Velero zum Sichern und Wiederherstellen von Arbeitslastclustern verwenden möchten, müssen Sie auch die Berechtigungen festlegen, die unter Anmeldedaten und Berechtigungen für den VMDK-Zugriff (Credentials and Privileges for VMDK Access) im Programmierhandbuch zum Virtual Disk Development Kit aufgeführt sind.
Wechseln Sie im vSphere Client zu Administration > Zugriffssteuerung (Access Control) > Rollen (Roles) und erstellen Sie eine neue Rolle, z. B. TKG
, mit den folgenden Berechtigungen.
vSphere-Objekt | Erforderliche Berechtigung |
---|---|
CNS | Durchsuchbar |
Datenspeicher | Speicherplatz zuteilen Datenspeicher durchsuchen Dateivorgänge auf niedriger Ebene |
Global (bei Verwendung von Velero zum Sichern und Wiederherstellen) | Methoden deaktivieren Methoden aktivieren Lizenzen |
Netzwerk | Netzwerk zuweisen |
Profilgesteuerter Speicher | Ansicht des profilgesteuerten Speichers |
Ressource | Virtuelle Maschine zu Ressourcenpool zuweisen |
Sitzungen | Nachricht Sitzung validieren |
Virtuelle Maschine | Konfiguration ändern > Vorhandene Festplatte hinzufügen Konfiguration ändern > Neue Festplatte hinzufügen Konfiguration ändern > Gerät hinzufügen oder entfernen Konfiguration ändern > Erweiterte Konfiguration Konfiguration ändern > CPU-Anzahl ändern Konfiguration ändern > Arbeitsspeicher ändern Konfiguration ändern > Einstellungen ändern Konfiguration ändern > Rohgerät konfigurieren Konfiguration ändern > Virtuelle Festplatte erweitern Konfiguration ändern > Geräteeinstellungen ändern Konfiguration ändern > Festplatte entfernen Konfiguration ändern > Festplattenwechsel-Verfolgung umschalten* Bestandsliste bearbeiten > Aus vorhandener erstellen Bestandsliste bearbeiten > Entfernen Interaktion > Einschalten Interaktion > Ausschalten Bereitstellung > Lesezugriff auf Festplatte zulassen* Bereitstellung > Download virtueller Maschinen zulassen* Bereitstellung > Vorlage bereitstellen Snapshot-Verwaltung > Snapshot erstellen* Snapshot-Verwaltung > Snapshot entfernen* * Erforderlich zum Aktivieren des Velero-Plug-Ins, wie unter Sichern und Wiederherstellen der Verwaltungs- und Arbeitslastcluster-Infrastruktur. Sie können diese Berechtigungen später bei Bedarf hinzufügen. |
vApp | Importieren |
Erstellen Sie unter Administration > Einmalige Anmeldung (Single Sign On) > Benutzer und Gruppen (Users and Groups) ein neues Benutzerkonto in der entsprechenden Domäne, z. B. tkg-user
.
Klicken Sie in den Ansichten Hosts und Cluster (Hosts and Clusters), VMs und Vorlagen (VMs and Templates), Speicher (Storage) und Netzwerk (Networking) mit der rechten Maustaste auf die Objekte, die in Ihrer Bereitstellung von Tanzu Kubernetes Grid verwendet werden. Wählen Sie Berechtigung hinzufügen (Add Permission) aus und weisen Sie den tkg-user
mit der Rolle TKG
jedem Objekt zu.
Konfigurieren Sie die Größe Ihrer Verwaltungs- und Arbeitslastclusterknoten je nach Komplexität des Clusters und erwartetem Bedarf. Als Größe können Sie small
, medium
, large
oder extra-large
festlegen, wie unter Vordefinierte Knotengrößen definiert.
Für alle Cluster unter vSphere konfigurieren Sie diese mit den Clusterkonfigurationsvariablen SIZE
, CONTROLPLANE_SIZE
und WORKER_SIZE
. Für größere Granularität können Sie die Konfigurationsvariablen VSPHERE_*
_DISK_GIB
, _NUM_CPUS
und _MEM_MIB
verwenden.
Für Verwaltungscluster werden im Feld Instanztyp (Instance Type) der Installationsprogramm-Schnittstelle auch die Größen von Knoten-VMs konfiguriert.
Verwenden Sie für Einzel-Worker-Verwaltungs- und Arbeitslastcluster, in denen Beispielanwendungen ausgeführt werden, die folgenden VM-Mindestgrößen:
small
medium
Damit die Tanzu CLI von dem Computer, auf dem sie ausgeführt wird, eine Verbindung zu vSphere herstellen kann, müssen Sie den öffentlichen Schlüssel eines SSH-Schlüsselpaars für Tanzu Kubernetes Grid angeben, wenn Sie den Verwaltungscluster bereitstellen. Wenn Sie auf dem Computer, auf dem Sie die CLI ausführen, noch keinen Schlüssel haben, können Sie können Sie ein Tool wie ssh-keygen
verwenden, um ein Schlüsselpaar zu erzeugen.
Führen Sie auf dem Computer, auf dem Sie die Tanzu CLI ausführen, den folgenden Befehl aus: ssh-keygen
.
ssh-keygen -t rsa -b 4096 -C "[email protected]"
An der Eingabeaufforderung: Enter file in which to save the key (/root/.ssh/id_rsa):
Drücken Sie die Eingabetaste, um die Vorgabe zu akzeptieren.
Fügen Sie den privaten Schlüssel zum SSH-Agenten hinzu, der auf Ihrem Computer ausgeführt wird, und geben Sie das im vorherigen Schritt erstellte Kennwort ein.
ssh-add ~/.ssh/id_rsa
Öffnen Sie die Datei .ssh/id_rsa.pub
in einem Texteditor, sodass Sie sie bei der Bereitstellung eines Verwaltungsclusters problemlos kopieren und einfügen können.
Wenn in Ihrer vSphere-Umgebung nicht vertrauenswürdige, selbstsignierte Zertifikate zur Authentifizierung von Verbindungen verwendet werden, müssen Sie den Fingerabdruck des vCenter Servers überprüfen, wenn Sie einen Verwaltungscluster bereitstellen. Falls für Ihre vSphere-Umgebung vertrauenswürdige Zertifikate verwendet werden, die von einer bekannten Zertifizierungsstelle (CA) signiert wurden, müssen Sie den Fingerabdruck nicht überprüfen.
Sie können die Zertifikatsanzeige Ihres Webbrowsers verwenden, um den Fingerabdruck des vSphere-Zertifikats abzurufen.
Öffnen Sie die Zertifikatsanzeige zu, indem Sie auf das Symbol Sicher (Secure) (Vorhängeschloss) links neben der Webadresse im URL-Feld klicken.
Die nächsten Schritte richten sich nach dem verwendeten Browser. Wählen Sie in Google Chrome beispielsweise Verbindung ist sicher > Zertifikat ist gültig aus, um die Zertifikatdetails einschließlich des Fingerabdrucks, anzuzeigen.
Notieren Sie sich den Wert SHA-1 Fingerprint aus dem Browser. Wenn sich zwischen jedem Hex-Paar Leerzeichen befinden, ersetzen Sie jedes Leerzeichen durch ein :
-Zeichen, wie z. B. 6D:4A:DC:6C:C4:43:73:BB:DF:9A:32:68:67:56:F9:96:02:08:64:F4
.
Sie können die Fingerabdruckzeichenfolge verwenden, um sie zu überprüfen, wenn Sie einen Verwaltungscluster über die Benutzeroberfläche des Installationsprogramms bereitstellen. Sie können diese Zeichenfolge auch für die Option VSPHERE_TLS_THUMBPRINT
zur Verfügung stellen, wenn Sie Cluster aus einer Konfigurationsdatei bereitstellen.
So stellen Sie einen Verwaltungscluster bereit, der IPv6 in einer IPv6-Netzwerkumgebung unterstützt:
Konfigurieren Sie Linux so, dass Routerankündigungen akzeptiert werden, um sicherzustellen, dass die standardmäßige IPv6-Route nicht aus der Routing-Tabelle entfernt wird, wenn der Docker-Dienst gestartet wird. Weitere Informationen finden Sie unter Docker CE deletes IPv6 Default route. sudo sysctl net.ipv6.conf.eth0.accept_ra=2
Erstellen Sie eine Maskierungsregel für den Bootstrap-Cluster, um ausgehenden Datenverkehr vom Bootstrap-Cluster zu senden: sudo ip6tables -t nat -A POSTROUTING -s fc00:f853:ccd:e793::/64 ! -o docker0 -j MASQUERADE
Weitere Informationen zu Maskierungsregeln finden Sie unter MASQUERADE.
Stellen Sie den Verwaltungscluster bereit, indem Sie tanzu mc create
ausführen, wie unter Bereitstellen von Verwaltungsclustern über eine Konfigurationsdatei beschrieben.
TKG_IP_FAMILY
und andere Variablen fest, wie unter Konfiguration für IPv6 beschrieben.Um eigenständige Verwaltungs- und Arbeitslastcluster bereitzustellen, die über mehrere Verfügbarkeitszonen (Availability Zones, AZs) hinweg in vSphere ausgeführt werden, müssen Sie:
Eine der folgenden Objektgruppen in vSphere erstellen oder identifizieren:
Taggen Sie die Objekte, um sie einer Region und ihren AZs in Kubernetes zuzuordnen, wie unter Vorbereiten von Regionen und AZs in vSphere beschrieben.
Für Produktionsbereitstellungen wird dringend empfohlen, die Identitätsverwaltung für Ihre Cluster zu aktivieren:
Wenn Sie Tanzu Kubernetes Grid in einer Umgebung mit einer externen Internetverbindung verwenden, können Sie nach der Einrichtung der Identitätsverwaltung Verwaltungscluster in vSphere bereitstellen.