This site will be decommissioned on December 31st 2024. After that date content will be available at techdocs.broadcom.com.

Vorbereitung der Bereitstellung von Verwaltungsclustern für vSphere

Bevor Sie die Tanzu CLI oder die Installationsprogramm-Schnittstelle verwenden können, um einen Verwaltungscluster bereitzustellen, müssen Sie Ihre vSphere Umgebung vorbereiten. Sie müssen sicherstellen, dass vSphere die allgemeinen Anforderungen erfüllt, und die Basisimage-Vorlagen importieren, aus denen Tanzu Kubernetes Grid Clusterknoten-VMs erstellt. Jede Basisimage-Vorlage enthält eine Version eines Maschinenbetriebssystems und eine Version von Kubernetes.

Allgemeine Anforderungen

  • Eine Maschine mit installierter Tanzu CLI, Docker und kubectl. Weitere Informationen finden Sie unter Installieren der Tanzu CLI und Kubernetes-CLI für die Verwendung mit eigenständigen Verwaltungsclustern.
    • Dies ist die Bootstrap-Maschine auf der Sie tanzu, kubectl und andere Befehle ausführen.
    • Die Bootstrap-Maschine kann eine lokaler physische Computer oder eine VM sein, auf die Sie über ein Konsolenfenster oder eine Client-Shell zugreifen.
  • Ein vSphere 8-, vSphere 7, vSphere 6.7u3-, VMware Cloud on AWS- oder Azure VMware Solution-Konto mit:
  • Ihre vSphere-Instanz verfügt über die folgenden Objekte:
    • Entweder ein eigenständiger Host oder ein vSphere-Cluster mit mindestens zwei Hosts
      • Wenn Sie eine Bereitstellung in einem vSphere-Cluster vornehmen, ist idealerweise vSphere DRS aktiviert.
    • Optional ein Ressourcenpool, in dem die Tanzu Kubernetes Grid-Instanz bereitgestellt werden kann
    • Ein VM-Ordner, in dem die Tanzu Kubernetes Grid-VMs erfasst werden sollen
    • Ein Datenspeicher mit ausreichender Kapazität für die VM-Dateien der Steuerungsebenen- und Worker-Knoten
    • Wenn Sie mehrere Tanzu Kubernetes Grid-Instanzen in derselben vSphere-Instanz bereitstellen möchten, erstellen Sie einen dedizierten Ressourcenpool, einen VM-Ordner und ein Netzwerk für jede Instanz, die Sie bereitstellen.
  • Sie haben folgende Schritte durchgeführt, um Ihre vSphere-Umgebung vorzubereiten:
  • Ein vSphere-Netzwerk* mit:

    • Die Möglichkeit, VMs, die für Ihren Cluster erstellt wurden, IP-Adressen zuzuteilen, entweder über DHCP oder indem Sie den VMs erlauben, Adressen beim Start auszuwählen. In vSphere ist der Netzwerktyp standardmäßig auf VSS eingestellt. Möglicherweise ziehen Sie aber in Produktionsumgebungen VDS oder NSX vor.
      • Erstellen Sie in VDS und NSX ein benutzerdefiniertes VM-Netzwerk, das den Kubernetes-Knoten in TKG IP-Adressen zuteilen kann.
    • Ein DNS-Namensserver.
      • VSS enthält diesen. Für VDS und NSX, oder wenn Sie Knoten-IPAM verwenden, müssen Sie die DNS-Namensserver-Adressen kennen und konfigurieren.
    • Ein mit Option 3 (Router) und Option 6 (DNS) konfigurierter DHCP-Server, mit dem die Clusterknoten-VMs, die Tanzu Kubernetes Grid bereitstellt, verbunden werden. Die Knoten-VMs müssen eine Verbindung mit vSphere herstellen können.
    • Ein Satz verfügbarer statischer virtueller IP-Adressen für alle von Ihnen erstellten Cluster, einschließlich Verwaltungs- und Arbeitslastclustern.
      • Jeder Cluster, den Sie in vSphere bereitstellen, benötigt eine statische IP-Adresse oder einen FQDN für den Endpoint der Steuerungsebene.
        • Sie konfigurieren diesen Wert als VSPHERE_CONTROL_PLANE_ENDPOINT. Wenn Sie NSX Advanced Load Balancer für Ihren Steuerungsebenen-Endpoint verwenden, lassen Sie die Adresse automatisch aus einem Adresspool festlegen.
        • Nachdem Sie einen Verwaltungs- oder Arbeitslastcluster erstellt haben, müssen Sie die DHCP-Reservierungen des zugehörigen Knotens und Endpoint-DNS konfigurieren (siehe Beschreibung unter Konfigurieren von DHCP-Reservierungen für Knoten und DNS-Datensätzen für Endpoints (nur vSphere)). Anweisungen zum Konfigurieren von DHCP-Reservierungen finden Sie in der Dokumentation zum DHCP-Server.
    • Datenverkehr, der von dem Netzwerk, in dem die Cluster ausgeführt werden, zu vCenter Server geleitet werden darf.
    • Zulässiger Datenverkehr zwischen Ihrer lokalen Bootstrap-Maschine und Port 6443 aller VMs in den von Ihnen erstellten Clustern. Port 6443 ist der Ort, an dem die Kubernetes-API standardmäßig verfügbar ist. Um diesen Port für einen Verwaltungs- oder einen Arbeitslastcluster zu ändern, legen Sie die Variable CLUSTER_API_SERVER_PORT oder für Umgebungen mit NSX Advanced Load Balancer die Variable VSPHERE_CONTROL_PLANE_ENDPOINT_PORT beim Bereitstellen des Clusters fest.
    • Zulässiger Datenverkehr zwischen Port 443 aller VMs in den Clustern, die Sie erstellen und vCenter Server. Port 443 ist der Ort, an dem die vCenter Server-API verfügbar ist.
    • Zulässiger ausgehender Datenverkehr von Ihrer lokalen Bootstrap-Maschine zu den Image-Repositorys, die in der BoM-Datei (Bill of Materials) des Verwaltungsclusters über Port 443 für TCP aufgelistet sind. Die BOM-Datei befindet sich unter ~/.config/tanzu/tkg/bom/, und ihr Name enthält die Tanzu Kubernetes Grid-Version, wie z. B. tkg-bom-v2.4.0+vmware.1.yaml für v2.4.0.
    • Der NTP-Dienst (Network Time Protocol), der auf allen Hosts ausgeführt wird, und die Hosts, die unter UTC ausgeführt werden. So überprüfen Sie die Uhrzeiteinstellungen auf Hosts:
      1. Verwenden Sie SSH, um sich beim ESXi-Host anzumelden.
      2. Führen Sie den Befehl date aus, um die Zeitzoneneinstellungen anzuzeigen.
      3. Wenn die Zeitzone falsch ist, führen Sie esxcli system time set aus.
    • Auf den NTP-Server kann von allen VMs aus zugegriffen werden. Sie können dies mithilfe der DHCP-Option 42 konfigurieren, oder befolgen Sie die Schritte unter Konfigurieren von NTP ohne DHCP-Option 42.
  • NSX Advanced Load Balancer (ALB) in Ihrer vSphere-Instanz installiert, wenn Sie NSX ALB als Lastausgleichsdienst und den Endpoint-Anbieter für HA der Steuerungsebene verwenden möchten. Weitere Informationen finden Sie unter Installation von NSX Advanced Load Balancer.

  • Wenn in Ihrer vSphere-Umgebung VMware NSX ausgeführt wird, können Sie bei der Bereitstellung von Verwaltungsclustern die NSX-Schnittstellen verwenden. Stellen Sie sicher, dass Ihr NSX-Setup ein Segment enthält, in dem DHCP aktiviert ist. Stellen Sie sicher, dass NTP auf allen ESXi-Hosts, auf vCenter Server und auf der Bootstrap-Maschine konfiguriert ist.

Informationen zur Installation ohne Zugriff auf externe Netzwerke finden Sie unter Vorbereitung einer Umgebung mit Internetbeschränkung.

Beispiele für die Dimensionierung des Verwaltungsclusters

In der folgenden Tabelle werden Beispiele für die Dimensionierung von Verwaltungsclustern in vSphere beschrieben. Verwenden Sie diese Daten als Richtlinie, um sicherzustellen, dass Ihr Verwaltungscluster für die Anzahl der Arbeitslastcluster skaliert ist, die Sie bereitstellen möchten. In der Spalte Größe der Arbeitslastcluster-VMwerden die VM-Größen aufgelistet, die für die Beispiele in der Spalte Kann verwalten… verwendet wurden.

Verwaltungscluster Plan Größe der Verwaltungscluster-VM Kann verwalten… Größe der Arbeitslastcluster-VM
3 Knoten der Steuerungsebene und 3 Worker-Knoten

Knoten der Steuerungsebene:

  • CPU: 2
  • Arbeitsspeicher: 4 GB
  • Festplatte: 20 GB

Worker-Knoten:

  • CPU: 2
  • Arbeitsspeicher: 4 GB
  • Festplatte: 20 GB
Beispiele:
  • 5 Arbeitslastcluster, wobei jeder Cluster mit 3 Steuerungsebenen- und 200 Worker-Knoten bereitgestellt wird; Oder
  • 10 Arbeitslastcluster, wobei jeder Cluster mit 3 Steuerungsebenen- und 50 Worker-Knoten bereitgestellt wird

Knoten der Steuerungsebene:

  • CPU: 2
  • Arbeitsspeicher: 4 GB
  • Festplatte: 20 GB

Worker-Knoten:

  • CPU: 2
  • Arbeitsspeicher: 4 GB
  • Festplatte: 20 GB
3 Knoten der Steuerungsebene und 3 Worker-Knoten

Knoten der Steuerungsebene:

  • CPU: 4
  • Arbeitsspeicher: 16 GB
  • Festplatte: 40 GB

Worker-Knoten:

  • CPU: 4
  • Arbeitsspeicher: 16 GB
  • Festplatte: 40 GB
Beispiel: Ein Arbeitslastcluster, der mit 3 Steuerungsebenen- und 500 Worker-Knoten bereitgestellt wird

Knoten der Steuerungsebene:

  • CPU: 16
  • Arbeitsspeicher: 64 GB
  • Festplatte: 100 GB

Worker-Knoten:

  • CPU: 8
  • Arbeitsspeicher: 8 GB
  • Festplatte: 20 GB
3 Knoten der Steuerungsebene und 3 Worker-Knoten

Knoten der Steuerungsebene:

  • CPU: 4
  • Arbeitsspeicher: 16 GB
  • Festplatte: 40 GB

Worker-Knoten:

  • CPU: 4
  • Arbeitsspeicher: 16 GB
  • Festplatte: 40 GB
Beispiel: 200 Arbeitslastcluster, wobei jeder Cluster mit 3 Steuerungsebenen- und 5 Worker-Knoten bereitgestellt wird

Knoten der Steuerungsebene:

  • CPU: 2
  • Arbeitsspeicher: 4 GB
  • Festplatte: 20 GB

Worker-Knoten:

  • CPU: 2
  • Arbeitsspeicher: 4 GB
  • Festplatte: 20 GB

Weitere Informationen finden Sie nachstehend unter VM-Mindestgrößen für Clusterknoten.

vSphere with Tanzu Supervisor ist ein Verwaltungscluster

Auf vSphere 8 enthält die vSphere with Tanzu-Funktion einen Supervisor, den Sie als Verwaltungscluster für Tanzu Kubernetes Grid verwenden können. Das bedeutet, dass Sie unter vSphere 8 nicht tanzu management-cluster create oder tanzu mc create verwenden müssen, um einen Verwaltungscluster bereitzustellen, wenn vSphere with Tanzu und der Supervisor aktiviert sind. Die Bereitstellung eines Tanzu Kubernetes Grid-Verwaltungsclusters in vSphere 8 wird unterstützt, wenn vSphere with Tanzu nicht aktiviert ist. Die bevorzugte Option besteht jedoch darin, vSphere with Tanzu zu aktivieren und wenn möglich den integrierten Supervisor-Cluster zu verwenden. Der vSphere with Tanzu Supervisor ist eng in vSphere integriert und bietet somit eine optimierte Benutzererfahrung im Vergleich zu einem eigenständigen Verwaltungscluster. Die Verwendung eines eigenständigen Verwaltungsclusters auf vSphere bietet jedoch mehr Konfigurations- und Anpassungsoptionen als ein Supervisor.

Wichtig

Die Versionen der Tanzu CLI, die mit TKG 2.x und mit dem vSphere with Tanzu Supervisor in vSphere 8 kompatibel sind, sind nicht mit dem Supervisor-Cluster in vSphere 7 kompatibel. Um die Tanzu CLI mit einem vSphere with Tanzu Supervisor-Cluster auf vSphere 7 zu verwenden, verwenden Sie die Tanzu CLI-Version von TKG v1.6. Um die Versionen von Tanzu CLI zu verwenden, die mit TKG 2.x mit Supervisor kompatibel sind, führen Sie ein Upgrade auf vSphere 8 durch. Sie können einen eigenständigen TKG 2.x-Verwaltungscluster auf vSphere 7 bereitstellen, wenn der vSphere with Tanzu Supervisor-Cluster nicht vorhanden ist. Informationen zur Kompatibilität zwischen der Tanzu CLI und VMware-Produkten finden Sie in der Tanzu CLI-Dokumentation.

Die Tanzu CLI funktioniert sowohl mit Verwaltungsclustern, die über vSphere with Tanzu bereitgestellt werden, als auch mit eigenständigen Verwaltungsclustern, die von Tanzu Kubernetes Grid in Azure, Amazon Web Services (AWS) und vSphere bereitgestellt werden, wenn vSphere with Tanzu nicht aktiviert ist. So können Sie Arbeitslastcluster in mehreren Infrastrukturen mit einem einzigen Tool bereitstellen und verwalten. Informationen zur Verwendung der Tanzu CLI mit einem Supervisor finden Sie unter Verbinden der Tanzu CLI mit dem Supervisor in Erstellen und Verwalten von TKG 2.4-Arbeitslastclustern mit der Tanzu CLI.

Informationen zur vSphere with Tanzu-Funktion in vSphere 8 finden Sie in der Dokumentation zu vSphere with Tanzu 8.0.

Hinweis

In Azure VMware Solution können Sie keinen Supervisor-Cluster erstellen und müssen einen Verwaltungscluster bereitstellen, um tanzu-Befehle auszuführen.

Kube-Vip und NSX Advanced Load Balancer für vSphere

Jeder Verwaltungs- und Arbeitslastcluster, den Sie in vSphere bereitstellen, benötigt eine statische virtuelle IP-Adresse für externe Anforderungen an den API-Server des Clusters. Sie müssen diese IP-Adresse zuweisen können, d. h. sie darf nicht in Ihrem DHCP-Bereich liegen, sondern muss sich im selben Subnetz wie der DHCP-Bereich befinden.

Der Kube-Vip-Pod der Steuerungsebene des Clusters verwendet diese statische virtuelle IP-Adresse, um API-Anforderungen zu verarbeiten. Das API-Serverzertifikat enthält die Adresse zum Aktivieren der sicheren TLS-Kommunikation. In Arbeitslastclustern wird Kube-Vip in einem einfachen Layer-2-Failover-Modus ausgeführt und weist die virtuelle IP-Adresse jeweils einem Steuerungsebenenknoten zu. In diesem Modus fungiert Kube-Vip nicht als echter Lastausgleichsdienst für den Datenverkehr der Steuerungsebene.

Tanzu Kubernetes Grid kann Kube-Vip als Lastausgleichsdienst für Arbeitslasten in Arbeitslastclustern verwenden (Tech Preview). Kube-VIP kann nicht als LoadBalancer-Dienst auf Windows-basierten Clustern verwendet werden. Weitere Informationen finden Sie unter Kube-VIP-Lastausgleichsdienst.

Verwenden Sie für den Lastausgleich von Arbeitslasten in vSphere NSX Advanced Load Balancer, auch bekannt als Avi Load Balancer, Essentials Edition.

Wichtig

Um unter vSphere 8 NSX Advanced Load Balancer mit einem eigenständigen TKG-Verwaltungscluster und dessen Arbeitslastclustern zu verwenden, benötigen Sie NSX ALB v22.1.2 oder höher und TKG v2.1.1 oder höher.

Importieren einer Basisimage-Vorlage in vSphere

Bevor Sie einen Cluster in vSphere bereitstellen können, müssen Sie in vSphere eine Basisimage-Vorlage importieren, die die Betriebssystem- und Kubernetes-Versionen enthält, unter denen die Clusterknoten ausgeführt werden. Für jedes unterstützte Paar von Betriebssystem- und Kubernetes-Versionen veröffentlicht VMware eine Basisimage-Vorlage im OVA-Format, um Cluster in vSphere bereitzustellen. Nachdem Sie die OVA in vSphere importiert haben, müssen Sie die resultierende VM in eine VM-Vorlage konvertieren.

Die unterstützten Basisimages für Clusterknoten hängen wie folgt vom Clustertyp ab:

  • Verwaltungscluster: OVA muss über Kubernetes v1.27.5 verfügen, die Standardversion für Tanzu Kubernetes Grid v2.4.0. Es muss also eine der folgenden Versionen sein:

    • Ubuntu v20.04 Kubernetes v1.27.5 OVA

      Hinweis

      In Tanzu Kubernetes Grid v2.4.0 verwendet das Ubuntu-OVA-Image den Unified Extensible Firmware Interface (UEFI)-Startmodus.

    • Photon v3 Kubernetes v1.27.5-OVA

    • Eine benutzerdefinierte OVA mit einem benutzerdefinierten Tanzu Kubernetes-Release (TKr), wie unter Erstellen von Maschinen-Images beschrieben.

  • Arbeitslastcluster: OVA kann über eine beliebige unterstützte Kombination aus Betriebssystem- und Kubernetes-Version verfügen, wie in einem Tanzu Kubernetes-Release gepackt. Weitere Informationen finden Sie unter Mehrere Kubernetes-Versionen.

So importieren Sie eine Basisimage-Vorlage in vSphere:

  1. Öffnen Sie die Download-Seite von Tanzu Kubernetes Grid, melden Sie sich mit Ihren VMware Customer Connect-Anmeldedaten an und klicken Sie auf Zu den Downloads (Go to Downloads).
  2. Laden Sie eine Tanzu Kubernetes Grid-OVA für die Clusterknoten herunter. Für den Verwaltungscluster muss dies einer der Downloads für Kubernetes v1.27.5 OVA sein.

    Wichtig

    Stellen Sie sicher, dass Sie die neuesten OVA-Basisimage-Vorlagen, wenn Sicherheits-Patch-Versionen vorhanden sind.

    Aktualisierte Basisimage-Vorlagen, die Sicherheits-Patches enthalten, finden Sie auf der Produktdownloadseite von Tanzu Kubernetes Grid.

  3. Klicken Sie im vSphere Client mit der rechten Maustaste auf ein Objekt in der vCenter Server-Bestandsliste und wählen Sie OVF-Vorlage bereitstellen (Deploy OVF template) aus.

  4. Wählen Sie Lokale Datei (Local file) aus, klicken Sie auf die Schaltfläche zum Hochladen von Dateien und navigieren Sie zur heruntergeladenen OVA-Datei auf Ihrem lokalen Computer.
  5. Folgen Sie den Eingabeaufforderungen des Installationsprogramms, um eine VM aus der OVA bereitzustellen.

    • Appliance-Name akzeptieren oder ändern
    • Zieldatencenter oder Zielordner auswählen
    • Zielhost, -cluster oder -ressourcenpool auswählen
    • Endbenutzer-Lizenzvereinbarungen (EULA) akzeptieren
    • Festplattenformat und Zieldatenspeicher auswählen
    • Netzwerk auswählen, mit dem die VM eine Verbindung herstellen soll
    Hinweis

    Wenn Sie Thick Provisioning als Festplattenformat auswählen, wird bei der Erstellung von Clusterknoten-VMs aus der Vorlage durch Tanzu Kubernetes Grid die volle Größe der Festplatte jedes Knotens reserviert. Dadurch kann schnell Speicherplatz verbraucht werden, wenn Sie viele Cluster oder Cluster mit vielen Knoten bereitstellen. Wenn Sie jedoch Thin Provisioning auswählen, kann dies bei der Bereitstellung von Clustern einen falschen Eindruck von der verfügbaren Speichermenge vermitteln. Wenn Sie Thin Provisioning auswählen, ist zum Zeitpunkt der Bereitstellung von Clustern möglicherweise genügend Speicherplatz verfügbar, aber der Speicherplatz wird möglicherweise knapp, wenn die Cluster ausgeführt werden und Daten anfallen.

  6. Klicken Sie auf Fertigstellen (Finish), um die VM bereitzustellen.
  7. Wenn die OVA-Bereitstellung abgeschlossen ist, klicken Sie mit der rechten Maustaste auf die VM und wählen Sie Vorlage (Template) > In Vorlage konvertieren (Convert to Template) aus.

    Wichtig

    Schalten Sie die VM nicht ein, bevor Sie sie in eine Vorlage konvertiert haben.

  8. Klicken Sie in der Ansicht VMs und Vorlagen (VMs and Templates) mit der rechten Maustaste auf die neue Vorlage, wählen Sie Berechtigung hinzufügen (Add permission) aus und weisen Sie der Vorlage den tkg-user mit der Rolle TKG zu.

    Informationen zum Erstellen des Benutzers und der Rolle für Tanzu Kubernetes Grid finden Sie unten unter Erforderliche Berechtigungen für das vSphere-Konto.

Wiederholen Sie den Vorgang für jede Kubernetes-Version, für die Sie die OVA-Datei heruntergeladen haben.

Erforderliche Berechtigungen für das vSphere-Konto

Das vCenter Single Sign On-Konto, das Sie für Tanzu Kubernetes Grid bei der Bereitstellung eines Verwaltungsclusters bereitstellen, muss über die richtigen Berechtigungen verfügen, um die erforderlichen Vorgänge in vSphere durchführen zu können.

Es wird nicht empfohlen, ein vSphere-Administratorkonto für Tanzu Kubernetes Grid anzugeben, da dadurch für Tanzu Kubernetes Grid wesentlich mehr Berechtigungen als erforderlich bereitgestellt werden. Die beste Möglichkeit, Tanzu Kubernetes Grid Berechtigungen zuzuweisen, besteht darin, eine Rolle und ein Benutzerkonto zu erstellen und dann diesem Benutzerkonto diese Rolle für vSphere-Objekte zu gewähren.

Hinweis

Wenn Sie Arbeitslastcluster in vSphere 7 oder 8 bereitstellen und vSphere with Tanzu aktiviert ist, müssen Sie zusätzlich zu den unten aufgeführten Berechtigungen die Berechtigung Global > Cloud-Admin festlegen. Wenn Sie Velero zum Sichern und Wiederherstellen von Arbeitslastclustern verwenden möchten, müssen Sie auch die Berechtigungen festlegen, die unter Anmeldedaten und Berechtigungen für den VMDK-Zugriff (Credentials and Privileges for VMDK Access) im Programmierhandbuch zum Virtual Disk Development Kit aufgeführt sind.

  1. Wechseln Sie im vSphere Client zu Administration > Zugriffssteuerung (Access Control) > Rollen (Roles) und erstellen Sie eine neue Rolle, z. B. TKG, mit den folgenden Berechtigungen.

    vSphere-Objekt Erforderliche Berechtigung
    CNS Durchsuchbar
    Datenspeicher Speicherplatz zuteilen
    Datenspeicher durchsuchen
    Dateivorgänge auf niedriger Ebene
    Global (bei Verwendung von Velero zum Sichern und Wiederherstellen) Methoden deaktivieren
    Methoden aktivieren
    Lizenzen
    Netzwerk Netzwerk zuweisen
    Profilgesteuerter Speicher Ansicht des profilgesteuerten Speichers
    Ressource Virtuelle Maschine zu Ressourcenpool zuweisen
    Sitzungen Nachricht
    Sitzung validieren
    Virtuelle Maschine Konfiguration ändern > Vorhandene Festplatte hinzufügen
    Konfiguration ändern > Neue Festplatte hinzufügen
    Konfiguration ändern > Gerät hinzufügen oder entfernen
    Konfiguration ändern > Erweiterte Konfiguration
    Konfiguration ändern > CPU-Anzahl ändern
    Konfiguration ändern > Arbeitsspeicher ändern
    Konfiguration ändern > Einstellungen ändern
    Konfiguration ändern > Rohgerät konfigurieren
    Konfiguration ändern > Virtuelle Festplatte erweitern
    Konfiguration ändern > Geräteeinstellungen ändern
    Konfiguration ändern > Festplatte entfernen
    Konfiguration ändern > Festplattenwechsel-Verfolgung umschalten*
    Bestandsliste bearbeiten > Aus vorhandener erstellen
    Bestandsliste bearbeiten > Entfernen
    Interaktion > Einschalten
    Interaktion > Ausschalten
    Bereitstellung > Lesezugriff auf Festplatte zulassen*
    Bereitstellung > Download virtueller Maschinen zulassen*
    Bereitstellung > Vorlage bereitstellen
    Snapshot-Verwaltung > Snapshot erstellen*
    Snapshot-Verwaltung > Snapshot entfernen*

    * Erforderlich zum Aktivieren des Velero-Plug-Ins, wie unter Sichern und Wiederherstellen der Verwaltungs- und Arbeitslastcluster-Infrastruktur. Sie können diese Berechtigungen später bei Bedarf hinzufügen.
    vApp Importieren

  2. Erstellen Sie unter Administration > Einmalige Anmeldung (Single Sign On) > Benutzer und Gruppen (Users and Groups) ein neues Benutzerkonto in der entsprechenden Domäne, z. B. tkg-user.

  3. Klicken Sie in den Ansichten Hosts und Cluster (Hosts and Clusters), VMs und Vorlagen (VMs and Templates), Speicher (Storage) und Netzwerk (Networking) mit der rechten Maustaste auf die Objekte, die in Ihrer Bereitstellung von Tanzu Kubernetes Grid verwendet werden. Wählen Sie Berechtigung hinzufügen (Add Permission) aus und weisen Sie den tkg-user mit der Rolle TKG jedem Objekt zu.

    • Hosts und Cluster
      • Das vCenter Server-Root-Objekt
      • Das Datencenter sowie alle Host- und Clusterordner, vom Datencenter-Objekt bis zum Cluster, der die Tanzu Kubernetes Grid-Bereitstellung verwaltet
      • Zielhosts und -cluster
      • Zielressourcenpools, für die „An untergeordnete Objekte weitergeben (Propagate to children)“ aktiviert ist
    • VMs und Vorlagen
      • Die bereitgestellten Tanzu Kubernetes Grid-Basisimage-Vorlagen
      • Ziel-VM- und Vorlagenordner mit aktivierter Option „An untergeordnete Objekte weitergeben (Propagate to children)“
    • Speicher
      • Datenspeicher und alle Speicherordner, vom Datencenterobjekt bis zu den Datenspeichern, die für Tanzu Kubernetes Grid-Bereitstellungen verwendet werden
    • Netzwerk
      • Netzwerke oder verteilte Portgruppen, denen Cluster zugewiesen werden
      • Distributed Switches

Minimale VM-Größen für Clusterknoten

Konfigurieren Sie die Größe Ihrer Verwaltungs- und Arbeitslastclusterknoten je nach Komplexität des Clusters und erwartetem Bedarf. Als Größe können Sie small, medium, large oder extra-large festlegen, wie unter Vordefinierte Knotengrößen definiert.

Für alle Cluster unter vSphere konfigurieren Sie diese mit den Clusterkonfigurationsvariablen SIZE, CONTROLPLANE_SIZE und WORKER_SIZE. Für größere Granularität können Sie die Konfigurationsvariablen VSPHERE_* _DISK_GIB, _NUM_CPUS und _MEM_MIB verwenden.

Für Verwaltungscluster werden im Feld Instanztyp (Instance Type) der Installationsprogramm-Schnittstelle auch die Größen von Knoten-VMs konfiguriert.

Verwenden Sie für Einzel-Worker-Verwaltungs- und Arbeitslastcluster, in denen Beispielanwendungen ausgeführt werden, die folgenden VM-Mindestgrößen:

  • Keine Dienste installiert: small
  • Grundlegende Dienste installiert (Wavefront, Fluent Bit, Contour, Envoy und TMC-Agent): medium

Erstellen eines SSH-Schlüsselpaars

Damit die Tanzu CLI von dem Computer, auf dem sie ausgeführt wird, eine Verbindung zu vSphere herstellen kann, müssen Sie den öffentlichen Schlüssel eines SSH-Schlüsselpaars für Tanzu Kubernetes Grid angeben, wenn Sie den Verwaltungscluster bereitstellen. Wenn Sie auf dem Computer, auf dem Sie die CLI ausführen, noch keinen Schlüssel haben, können Sie können Sie ein Tool wie ssh-keygen verwenden, um ein Schlüsselpaar zu erzeugen.

  1. Führen Sie auf dem Computer, auf dem Sie die Tanzu CLI ausführen, den folgenden Befehl aus: ssh-keygen.

    ssh-keygen -t rsa -b 4096 -C "[email protected]"
    
  2. An der Eingabeaufforderung: Enter file in which to save the key (/root/.ssh/id_rsa): Drücken Sie die Eingabetaste, um die Vorgabe zu akzeptieren.

  3. Geben Sie ein Kennwort für das Schlüsselpaar ein und wiederholen Sie es.
  4. Fügen Sie den privaten Schlüssel zum SSH-Agenten hinzu, der auf Ihrem Computer ausgeführt wird, und geben Sie das im vorherigen Schritt erstellte Kennwort ein.

    ssh-add ~/.ssh/id_rsa
    
  5. Öffnen Sie die Datei .ssh/id_rsa.pub in einem Texteditor, sodass Sie sie bei der Bereitstellung eines Verwaltungsclusters problemlos kopieren und einfügen können.

Abrufen von vSphere-Zertifikatfingerabdrücken

Wenn in Ihrer vSphere-Umgebung nicht vertrauenswürdige, selbstsignierte Zertifikate zur Authentifizierung von Verbindungen verwendet werden, müssen Sie den Fingerabdruck des vCenter Servers überprüfen, wenn Sie einen Verwaltungscluster bereitstellen. Falls für Ihre vSphere-Umgebung vertrauenswürdige Zertifikate verwendet werden, die von einer bekannten Zertifizierungsstelle (CA) signiert wurden, müssen Sie den Fingerabdruck nicht überprüfen.

Sie können die Zertifikatsanzeige Ihres Webbrowsers verwenden, um den Fingerabdruck des vSphere-Zertifikats abzurufen.

  1. Melden Sie sich in einem Webbrowser beim vSphere Client an.
  2. Öffnen Sie die Zertifikatsanzeige zu, indem Sie auf das Symbol Sicher (Secure) (Vorhängeschloss) links neben der Webadresse im URL-Feld klicken.

    Die nächsten Schritte richten sich nach dem verwendeten Browser. Wählen Sie in Google Chrome beispielsweise Verbindung ist sicher > Zertifikat ist gültig aus, um die Zertifikatdetails einschließlich des Fingerabdrucks, anzuzeigen.

  3. Notieren Sie sich den Wert SHA-1 Fingerprint aus dem Browser. Wenn sich zwischen jedem Hex-Paar Leerzeichen befinden, ersetzen Sie jedes Leerzeichen durch ein :-Zeichen, wie z. B. 6D:4A:DC:6C:C4:43:73:BB:DF:9A:32:68:67:56:F9:96:02:08:64:F4.

    Sie können die Fingerabdruckzeichenfolge verwenden, um sie zu überprüfen, wenn Sie einen Verwaltungscluster über die Benutzeroberfläche des Installationsprogramms bereitstellen. Sie können diese Zeichenfolge auch für die Option VSPHERE_TLS_THUMBPRINT zur Verfügung stellen, wenn Sie Cluster aus einer Konfigurationsdatei bereitstellen.

Einstellungen und Regeln für IPv6

So stellen Sie einen Verwaltungscluster bereit, der IPv6 in einer IPv6-Netzwerkumgebung unterstützt:

  1. Konfigurieren Sie Linux so, dass Routerankündigungen akzeptiert werden, um sicherzustellen, dass die standardmäßige IPv6-Route nicht aus der Routing-Tabelle entfernt wird, wenn der Docker-Dienst gestartet wird. Weitere Informationen finden Sie unter Docker CE deletes IPv6 Default route. sudo sysctl net.ipv6.conf.eth0.accept_ra=2

  2. Erstellen Sie eine Maskierungsregel für den Bootstrap-Cluster, um ausgehenden Datenverkehr vom Bootstrap-Cluster zu senden: sudo ip6tables -t nat -A POSTROUTING -s fc00:f853:ccd:e793::/64 ! -o docker0 -j MASQUERADE Weitere Informationen zu Maskierungsregeln finden Sie unter MASQUERADE.

  3. Stellen Sie den Verwaltungscluster bereit, indem Sie tanzu mc create ausführen, wie unter Bereitstellen von Verwaltungsclustern über eine Konfigurationsdatei beschrieben.

    • Wenn Sie die Konfigurationsdatei für den Verwaltungscluster erstellen, legen Sie TKG_IP_FAMILY und andere Variablen fest, wie unter Konfiguration für IPv6 beschrieben.
    • Für die IPv6-Unterstützung müssen Sie den Verwaltungscluster über eine Konfigurationsdatei und nicht über die Installationsprogramm-Schnittstelle bereitstellen.

Verfügbarkeitzonen vorbereiten

Um eigenständige Verwaltungs- und Arbeitslastcluster bereitzustellen, die über mehrere Verfügbarkeitszonen (Availability Zones, AZs) hinweg in vSphere ausgeführt werden, müssen Sie:

  1. Eine der folgenden Objektgruppen in vSphere erstellen oder identifizieren:

    • Ein vSphere-Datencenter und dessen Cluster
    • Ein vSphere-Cluster und dessen Hostgruppen
  2. Taggen Sie die Objekte, um sie einer Region und ihren AZs in Kubernetes zuzuordnen, wie unter Vorbereiten von Regionen und AZs in vSphere beschrieben.

Nächste Schritte

Für Produktionsbereitstellungen wird dringend empfohlen, die Identitätsverwaltung für Ihre Cluster zu aktivieren:

Wenn Sie Tanzu Kubernetes Grid in einer Umgebung mit einer externen Internetverbindung verwenden, können Sie nach der Einrichtung der Identitätsverwaltung Verwaltungscluster in vSphere bereitstellen.

check-circle-line exclamation-circle-line close-line
Scroll to top icon