Konfiguration des Verwaltungsclusters für vSphere

Um eine Clusterkonfigurationsdatei zu erstellen, können Sie eine vorhandene Konfigurationsdatei für eine vorherige Bereitstellung in vSphere kopieren und aktualisieren. Alternativ können Sie eine Datei mithilfe einer leeren Vorlage von Grund auf neu erstellen.

Verwaltungscluster-Konfigurationsvorlage

Die folgende Vorlage enthält alle relevanten Optionen für die Bereitstellung von Verwaltungsclustern in vSphere. Sie können diese Vorlage kopieren und für die Bereitstellung von Verwaltungsclustern in vSphere verwenden.

Erforderliche Optionen sind unkommentiert. Optionale Einstellungen sind auskommentiert. Standardwerte sind, wenn erforderlich, enthalten.

#! ---------------------------------------------------------------------
#! Basic cluster creation configuration
#! ---------------------------------------------------------------------

CLUSTER_NAME:
CLUSTER_PLAN: dev
INFRASTRUCTURE_PROVIDER: vsphere
# CLUSTER_API_SERVER_PORT: # For deployments without NSX Advanced Load Balancer
ENABLE_CEIP_PARTICIPATION: true
ENABLE_AUDIT_LOGGING: true
CLUSTER_CIDR: 100.96.0.0/11
SERVICE_CIDR: 100.64.0.0/13
# CAPBK_BOOTSTRAP_TOKEN_TTL: 30m

#! ---------------------------------------------------------------------
#! vSphere configuration
#! ---------------------------------------------------------------------

VSPHERE_SERVER:
VSPHERE_USERNAME:
VSPHERE_PASSWORD:
VSPHERE_DATACENTER:
VSPHERE_RESOURCE_POOL:
VSPHERE_DATASTORE:
VSPHERE_FOLDER:
VSPHERE_NETWORK: VM Network
# VSPHERE_CONTROL_PLANE_ENDPOINT: # Required for Kube-Vip
# VSPHERE_CONTROL_PLANE_ENDPOINT_PORT: 6443
VIP_NETWORK_INTERFACE: "eth0"
# VSPHERE_TEMPLATE:
VSPHERE_SSH_AUTHORIZED_KEY:
# VSPHERE_STORAGE_POLICY_ID: ""
VSPHERE_TLS_THUMBPRINT:
VSPHERE_INSECURE: false
DEPLOY_TKG_ON_VSPHERE7: false
ENABLE_TKGS_ON_VSPHERE7: false

#! ---------------------------------------------------------------------
#! Node configuration
#! ---------------------------------------------------------------------

# SIZE:
# CONTROLPLANE_SIZE:
# WORKER_SIZE:
# OS_NAME: ""
# OS_VERSION: ""
# OS_ARCH: ""
# VSPHERE_NUM_CPUS: 2
# VSPHERE_DISK_GIB: 40
# VSPHERE_MEM_MIB: 4096
# VSPHERE_CONTROL_PLANE_NUM_CPUS: 2
# VSPHERE_CONTROL_PLANE_DISK_GIB: 40
# VSPHERE_CONTROL_PLANE_MEM_MIB: 8192
# VSPHERE_WORKER_NUM_CPUS: 2
# VSPHERE_WORKER_DISK_GIB: 40
# VSPHERE_WORKER_MEM_MIB: 4096

#! ---------------------------------------------------------------------
#! VMware NSX specific configuration for enabling NSX routable pods
#! ---------------------------------------------------------------------

# NSXT_POD_ROUTING_ENABLED: false
# NSXT_ROUTER_PATH: ""
# NSXT_USERNAME: ""
# NSXT_PASSWORD: ""
# NSXT_MANAGER_HOST: ""
# NSXT_ALLOW_UNVERIFIED_SSL: false
# NSXT_REMOTE_AUTH: false
# NSXT_VMC_ACCESS_TOKEN: ""
# NSXT_VMC_AUTH_HOST: ""
# NSXT_CLIENT_CERT_KEY_DATA: ""
# NSXT_CLIENT_CERT_DATA: ""
# NSXT_ROOT_CA_DATA: ""
# NSXT_SECRET_NAME: "cloud-provider-vsphere-nsxt-credentials"
# NSXT_SECRET_NAMESPACE: "kube-system"

#! ---------------------------------------------------------------------
#! NSX Advanced Load Balancer configuration
#! ---------------------------------------------------------------------

AVI_ENABLE: false
AVI_CONTROL_PLANE_HA_PROVIDER: false
# AVI_NAMESPACE: "tkg-system-networking"
# AVI_DISABLE_INGRESS_CLASS: true
# AVI_AKO_IMAGE_PULL_POLICY: IfNotPresent
# AVI_ADMIN_CREDENTIAL_NAME: avi-controller-credentials
# AVI_CA_NAME: avi-controller-ca
# AVI_CONTROLLER:
# AVI_USERNAME: ""
# AVI_PASSWORD: ""
# AVI_CLOUD_NAME:
# AVI_SERVICE_ENGINE_GROUP:
# AVI_NSXT_T1LR: # Required for NSX ALB deployments on NSX Cloud.
# AVI_MANAGEMENT_CLUSTER_SERVICE_ENGINE_GROUP:
# AVI_DATA_NETWORK:
# AVI_DATA_NETWORK_CIDR:
# AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_NAME:
# AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_CIDR:
# AVI_CA_DATA_B64: ""
# AVI_LABELS: ""
# AVI_DISABLE_STATIC_ROUTE_SYNC: true
# AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER: false
# AVI_INGRESS_SHARD_VS_SIZE: ""
# AVI_INGRESS_SERVICE_TYPE: ""
# AVI_INGRESS_NODE_NETWORK_LIST: ""

#! ---------------------------------------------------------------------
#! Image repository configuration
#! ---------------------------------------------------------------------

# TKG_CUSTOM_IMAGE_REPOSITORY: ""
# TKG_CUSTOM_IMAGE_REPOSITORY_CA_CERTIFICATE: ""

#! ---------------------------------------------------------------------
#! Proxy configuration
#! ---------------------------------------------------------------------

# TKG_HTTP_PROXY: ""
# TKG_HTTPS_PROXY: ""
# TKG_NO_PROXY: ""

#! ---------------------------------------------------------------------
#! Machine Health Check configuration
#! ---------------------------------------------------------------------

ENABLE_MHC:
ENABLE_MHC_CONTROL_PLANE: true
ENABLE_MHC_WORKER_NODE: true
MHC_UNKNOWN_STATUS_TIMEOUT: 5m
MHC_FALSE_STATUS_TIMEOUT: 12m

#! ---------------------------------------------------------------------
#! Identity management configuration
#! ---------------------------------------------------------------------

IDENTITY_MANAGEMENT_TYPE: "none"

#! Settings for IDENTITY_MANAGEMENT_TYPE: "oidc"
# CERT_DURATION: 2160h
# CERT_RENEW_BEFORE: 360h
# OIDC_IDENTITY_PROVIDER_CLIENT_ID:
# OIDC_IDENTITY_PROVIDER_CLIENT_SECRET:
# OIDC_IDENTITY_PROVIDER_GROUPS_CLAIM: groups
# OIDC_IDENTITY_PROVIDER_ISSUER_URL:
# OIDC_IDENTITY_PROVIDER_SCOPES: "email,profile,groups"
# OIDC_IDENTITY_PROVIDER_USERNAME_CLAIM: email

#! The following two variables are used to configure Pinniped JWTAuthenticator for workload clusters
# SUPERVISOR_ISSUER_URL:
# SUPERVISOR_ISSUER_CA_BUNDLE_DATA:

#! Settings for IDENTITY_MANAGEMENT_TYPE: "ldap"
# LDAP_BIND_DN:
# LDAP_BIND_PASSWORD:
# LDAP_HOST:
# LDAP_USER_SEARCH_BASE_DN:
# LDAP_USER_SEARCH_FILTER:
# LDAP_USER_SEARCH_USERNAME: userPrincipalName
# LDAP_USER_SEARCH_ID_ATTRIBUTE: DN
# LDAP_USER_SEARCH_EMAIL_ATTRIBUTE: DN
# LDAP_USER_SEARCH_NAME_ATTRIBUTE:
# LDAP_GROUP_SEARCH_BASE_DN:
# LDAP_GROUP_SEARCH_FILTER:
# LDAP_GROUP_SEARCH_USER_ATTRIBUTE: DN
# LDAP_GROUP_SEARCH_GROUP_ATTRIBUTE:
# LDAP_GROUP_SEARCH_NAME_ATTRIBUTE: cn
# LDAP_ROOT_CA_DATA_B64:

#! ---------------------------------------------------------------------
#! Antrea CNI configuration
#! ---------------------------------------------------------------------

# ANTREA_NO_SNAT: true
# ANTREA_NODEPORTLOCAL: true
# ANTREA_NODEPORTLOCAL_ENABLED: true
# ANTREA_NODEPORTLOCAL_PORTRANGE: 61000-62000
# ANTREA_TRAFFIC_ENCAP_MODE: "encap"
# ANTREA_PROXY: true
# ANTREA_PROXY_ALL: true
# ANTREA_PROXY_LOAD_BALANCER_IPS: false
# ANTREA_PROXY_NODEPORT_ADDRS:
# ANTREA_PROXY_SKIP_SERVICES: ""
# ANTREA_POLICY: true
# ANTREA_TRACEFLOW: true
# ANTREA_DISABLE_UDP_TUNNEL_OFFLOAD: false
# ANTREA_ENABLE_USAGE_REPORTING: false
# ANTREA_EGRESS: true
# ANTREA_EGRESS_EXCEPT_CIDRS: ""
# ANTREA_FLOWEXPORTER: false
# ANTREA_FLOWEXPORTER_COLLECTOR_ADDRESS: "flow-aggregator.flow-aggregator.svc:4739:tls"
# ANTREA_FLOWEXPORTER_POLL_INTERVAL: "5s"
# ANTREA_FLOWEXPORTER_ACTIVE_TIMEOUT: "5s"
# ANTREA_FLOWEXPORTER_IDLE_TIMEOUT: "15s"
# ANTREA_IPAM: false
# ANTREA_KUBE_APISERVER_OVERRIDE: ""
# ANTREA_MULTICAST: false
# ANTREA_MULTICAST_INTERFACES: ""
# ANTREA_NETWORKPOLICY_STATS: true
# ANTREA_SERVICE_EXTERNALIP: true
# ANTREA_TRANSPORT_INTERFACE: ""
# ANTREA_TRANSPORT_INTERFACE_CIDRS: ""

Allgemeine vSphere-Konfiguration

Geben Sie Informationen an, um Tanzu Kubernetes Grid die Anmeldung bei vSphere zu ermöglichen und die Ressourcen festzulegen, die Tanzu Kubernetes Grid verwenden kann.

  • Aktualisieren Sie die Einstellungen VSPHERE_SERVER, VSPHERE_USERNAME und VSPHERE_PASSWORD mit der IP-Adresse oder dem FQDN der vCenter Server-Instanz und den zu verwendenden Anmeldedaten.
  • Geben Sie die vollständigen Pfade des vSphere Datencenters, der Ressourcenpools, der Datenspeicher und des Ordners an, in denen der Verwaltungscluster bereitgestellt werden soll:

    • VSPHERE_DATACENTER: /<MY-DATACENTER>
    • VSPHERE_RESOURCE_POOL: /<MY-DATACENTER>/host/<CLUSTER>/Resources
    • VSPHERE_DATASTORE: /<MY-DATACENTER>/datastore/<MY-DATASTORE>
    • VSPHERE_FOLDER: /<MY-DATACENTER>/vm/<FOLDER>.
  • Legen Sie je nach HA-Anbieter für die Steuerungsebenen-API des Clusters VSPHERE_CONTROL_PLANE_ENDPOINT fest oder lassen Sie das Feld leer:
    • Kube-VIP: Legen Sie dies auf eine statische virtuelle IP-Adresse oder einen vollqualifizierten Domänennamen (FQDN) fest, der der VIP-Adresse zugeordnet ist.
    • NSX Advanced Load Balancer: Lassen Sie das Feld leer, sofern Sie keinen Endpoint angeben müssen. Ist dies jedoch der Fall, verwenden Sie eine statische Adresse innerhalb des VIP-Netzwerkbereichs des IPAM-Profils, den Sie manuell zum statischen IP-Pool hinzugefügt haben, oder einen FQDN, der der statischen Adresse zugeordnet ist.
  • Geben Sie in VSPHERE_NETWORK bzw. VIP_NETWORK_INTERFACE ein Netzwerk und eine Netzwerkschnittstelle an.
  • Heben Sie optional die Kommentierung von VSPHERE_TEMPLATE auf und aktualisieren Sie sie mit dem Pfad zu einer OVA-Datei, wenn Sie mehrere benutzerdefinierte OVA-Images für dieselbe Kubernetes-Version verwenden. Verwenden Sie das Format /MY-DC/vm/MY-FOLDER-PATH/MY-IMAGE. Weitere Informationen finden Sie unter Bereitstellen eines Clusters mit einem benutzerdefinierten OVA-Image in Erstellen und Verwalten von TKG 2.2-Arbeitslastclustern mit der Tanzu CLI.
  • Geben Sie bei der Option VSPHERE_SSH_AUTHORIZED_KEY Ihren SSH-Schlüssel an. Informationen zum Abrufen eines SSH-Schlüssels finden Sie unter Vorbereitung der Bereitstellung von Verwaltungsclustern in vSphere.
  • Geben Sie in der Variable VSPHERE_TLS_THUMBPRINT den TLS-Fingerabdruck an oder legen Sie VSPHERE_INSECURE: true fest, um die Fingerabdrucküberprüfung zu überspringen.
  • Heben Sie optional die Kommentierung von VSPHERE_STORAGE_POLICY_ID auf und geben Sie den Namen einer Speicherrichtlinie des zu verwendenden Verwaltungsclusters für die VMs an, welche Sie auf vCenter Server konfiguriert haben.

Beispiel:

#! ---------------------------------------------------------------------
#! vSphere configuration
#! ---------------------------------------------------------------------

VSPHERE_SERVER: 10.185.12.154
VSPHERE_USERNAME: tkg-user@vsphere.local
VSPHERE_PASSWORD: <encoded:QWRtaW4hMjM=>
VSPHERE_DATACENTER: /dc0
VSPHERE_RESOURCE_POOL: /dc0/host/cluster0/Resources/tanzu
VSPHERE_DATASTORE: /dc0/datastore/sharedVmfs-1
VSPHERE_FOLDER: /dc0/vm/tanzu
VSPHERE_NETWORK: "VM Network"
VSPHERE_CONTROL_PLANE_ENDPOINT: 10.185.11.134
VIP_NETWORK_INTERFACE: "eth0"
VSPHERE_TEMPLATE: /dc0/vm/tanzu/my-image.ova
VSPHERE_SSH_AUTHORIZED_KEY: ssh-rsa AAAAB3[...]tyaw== user@example.com
VSPHERE_TLS_THUMBPRINT: 47:F5:83:8E:5D:36:[...]:72:5A:89:7D:29:E5:DA
VSPHERE_INSECURE: false
VSPHERE_STORAGE_POLICY_ID: "My storage policy"

Knotengrößen konfigurieren

Die Tanzu CLI erstellt die einzelnen Knoten von Verwaltungs- und Arbeitslastclustern gemäß den Einstellungen, die Sie in der Konfigurationsdatei angeben. In vSphere können Sie alle Knoten-VMs so konfigurieren, dass sie dieselben vordefinierten Konfigurationen aufweisen, oder Sie können unterschiedliche vordefinierte Konfigurationen für die Steuerungsebenen- und Worker-Knoten festlegen oder die Konfiguration der Knoten anpassen. Mithilfe dieser Einstellungen können Sie Cluster erstellen, die Knoten mit anderen Konfigurationen als die Verwaltungsclusterknoten aufweisen. Sie können auch Cluster erstellen, in denen Steuerungsebenen- und Worker-Knoten jeweils unterschiedliche Konfigurationen aufweisen.

Vordefinierte Knotengrößen

Die Tanzu CLI bietet die folgenden vordefinierten Konfigurationen für Clusterknoten:

  • small: 2 CPUs, 4 GB Arbeitsspeicher, 20 GB Festplatte
  • medium: 2 CPUs, 8 GB Arbeitsspeicher, 40 GB Festplatte
  • large: 4 CPUs, 16 GB Arbeitsspeicher, 40 GB Festplatte
  • extra-large: 8 CPUs, 32 GB Arbeitsspeicher, 80 GB Festplatte

Um einen Cluster zu erstellen, in dem alle Steuerungsebenen- und Worker-Knoten-VMs dieselbe Größe aufweisen, geben Sie die Variable SIZE an. Wenn Sie die Variable SIZE festlegen, werden alle Knoten mit der von Ihnen festgelegten Konfiguration erstellt.

SIZE: "large"

Um einen Cluster zu erstellen, bei dem die Steuerungsebenen- und Worker-Knoten-VMs unterschiedliche Größen aufweisen, geben Sie die Optionen CONTROLPLANE_SIZE und WORKER_SIZE an.

CONTROLPLANE_SIZE: "medium"
WORKER_SIZE: "extra-large"

Sie können die Optionen CONTROLPLANE_SIZE und WORKER_SIZE mit der Option SIZE kombinieren. Wenn Sie beispielsweise SIZE: "large" mit WORKER_SIZE: "extra-large" angeben, werden die Knoten der Steuerungsebene auf large und die Worker-Knoten auf extra-large festgelegt.

SIZE: "large"
WORKER_SIZE: "extra-large"

Benutzerdefinierte Knotengrößen

Sie können die Konfiguration der Knoten anpassen, anstatt die vordefinierten Konfigurationen zu verwenden.

Um dieselbe benutzerdefinierte Konfiguration für alle Knoten zu verwenden, geben Sie die Optionen VSPHERE_NUM_CPUS, VSPHERE_DISK_GIB und VSPHERE_MEM_MIB an.

VSPHERE_NUM_CPUS: 2
VSPHERE_DISK_GIB: 40
VSPHERE_MEM_MIB: 4096

Um verschiedene benutzerdefinierte Konfigurationen für Steuerungsebenenknoten und Worker-Knoten festzulegen, geben Sie die Optionen VSPHERE_CONTROL_PLANE_* und VSPHERE_WORKER_* an.

VSPHERE_CONTROL_PLANE_NUM_CPUS: 2
VSPHERE_CONTROL_PLANE_DISK_GIB: 20
VSPHERE_CONTROL_PLANE_MEM_MIB: 8192
VSPHERE_WORKER_NUM_CPUS: 4
VSPHERE_WORKER_DISK_GIB: 40
VSPHERE_WORKER_MEM_MIB: 4096

Sie können diese Einstellungen mit den Optionen SIZE, CONTROLPLANE_SIZE und WORKER_SIZE überschreiben.

Konfigurieren von NSX Advanced Load Balancer

Um NSX Advanced Load Balancer zu verwenden, müssen Sie ihn zuerst in Ihrer vSphere-Umgebung bereitstellen. Weitere Informationen finden Sie unter Installation von NSX Advanced Load Balancer. Konfigurieren Sie nach der Bereitstellung von NSX Advanced Load Balancer einen vSphere-Verwaltungscluster für die Verwendung des Lastausgleichsdiensts.

Beispiel:

AVI_ENABLE: true
AVI_CONTROL_PLANE_HA_PROVIDER: true
AVI_NAMESPACE: "tkg-system-networking"
AVI_DISABLE_INGRESS_CLASS: true
AVI_AKO_IMAGE_PULL_POLICY: IfNotPresent
AVI_ADMIN_CREDENTIAL_NAME: avi-controller-credentials
AVI_CA_NAME: avi-controller-ca
AVI_CONTROLLER: 10.185.10.217
AVI_USERNAME: "admin"
AVI_PASSWORD: "<password>"
AVI_CLOUD_NAME: "Default-Cloud"
AVI_SERVICE_ENGINE_GROUP: "Default-Group"
AVI_NSXT_T1LR:""
AVI_DATA_NETWORK: nsx-alb-dvswitch
AVI_DATA_NETWORK_CIDR: 10.185.0.0/20
AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_NAME: ""
AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_CIDR: ""
AVI_CA_DATA_B64: LS0tLS1CRU[...]UtLS0tLQo=
AVI_LABELS: ""
AVI_DISABLE_STATIC_ROUTE_SYNC: true
AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER: false
AVI_INGRESS_SHARD_VS_SIZE: ""
AVI_INGRESS_SERVICE_TYPE: ""
AVI_INGRESS_NODE_NETWORK_LIST: ""

Standardmäßig wird der Lastausgleichsdienst vom Verwaltungscluster und allen von ihm verwalteten Arbeitslastclustern verwendet. Informationen zum Konfigurieren der Variablen von NSX Advanced Load Balancer finden Sie unter NSX Advanced Load Balancer in der Variablenreferenz für Konfigurationsdatei.

NSX Advanced Load Balancer als Steuerungsebenen-Endpointanbieter

Sie können NSX ALB als Steuerungsebenen-Endpointanbieter in Tanzu Kubernetes Grid verwenden. Die folgende Tabelle beschreibt die Unterschiede zwischen NSX ALB und Kube-Vip, dem standardmäßigen Steuerungsebenen-Endpointanbieter in Tanzu Kubernetes Grid.

Kube-Vip NSX ALB
Sendet Datenverkehr an Einzelnen Steuerungsebenenknoten
Mehrere Steuerungsebenenknoten
Erfordert die Konfiguration von Endpoint-VIP Ja
Nein
Weist VIP aus dem statischen IP-Pool von NSX ALB zu

Konfiguration von routingfähigen NSX-Pods

Wenn Ihre vSphere-Umgebung NSX verwendet, können Sie die Implementierung von routingfähigen oder NO_NAT-Pods konfigurieren.

Hinweis

Routingfähige NSX-Pods sind eine experimentelle Funktion in dieser Version. Informationen zur Implementierung von routingfähigen NSX Pods werden dieser Dokumentation in Kürze hinzugefügt.

#! ---------------------------------------------------------------------
#! NSX specific configuration for enabling NSX routable pods
#! ---------------------------------------------------------------------

# NSXT_POD_ROUTING_ENABLED: false
# NSXT_ROUTER_PATH: ""
# NSXT_USERNAME: ""
# NSXT_PASSWORD: ""
# NSXT_MANAGER_HOST: ""
# NSXT_ALLOW_UNVERIFIED_SSL: false
# NSXT_REMOTE_AUTH: false
# NSXT_VMC_ACCESS_TOKEN: ""
# NSXT_VMC_AUTH_HOST: ""
# NSXT_CLIENT_CERT_KEY_DATA: ""
# NSXT_CLIENT_CERT_DATA: ""
# NSXT_ROOT_CA_DATA: ""
# NSXT_SECRET_NAME: "cloud-provider-vsphere-nsxt-credentials"
# NSXT_SECRET_NAMESPACE: "kube-system"

Konfiguration für IPv6

So stellen Sie in einer IPv6-Netzwerkumgebung einen Verwaltungscluster bereit, der IPv6 unterstützt:

  1. Bereiten Sie die Umgebung wie in (Optional) Variablen und Regeln für IPv6 beschrieben vor.

  2. Legen Sie die folgenden Variablen in der Konfigurationsdatei für den Verwaltungscluster fest.

    • Legen Sie TKG_IP_FAMILY auf ipv6 fest.
    • Legen Sie VSPHERE_CONTROL_PLANE_ENDPOINT auf eine statische IPv6-Adresse fest.
    • (Optional) Legen Sie die CLUSTER_CIDR and SERVICE_CIDR fest. Standardmäßig sind dies fd00:100:64::/48 und fd00:100:96::/108.

Verwaltungscluster in vSphere with Tanzu

In vSphere 7 und vSphere 8 stellt vSphere with Tanzu einen integrierten Supervisor bereit, der als Verwaltungscluster funktioniert und eine bessere Benutzererfahrung bietet als ein eigenständiger Verwaltungscluster. Die Bereitstellung eines Tanzu Kubernetes Grid-Verwaltungsclusters in vSphere 7 oder vSphere 8 wird auch bei nicht vorhandenem Supervisor unterstützt, es ist jedoch vorzuziehen, vSphere with Tanzu zu aktivieren und nach Möglichkeit den Supervisor zu verwenden. Azure VMware Solution unterstützt keinen Supervisor-Cluster, sodass Sie einen Verwaltungscluster bereitstellen müssen. Weitere Informationen finden Sie unter vSphere with Tanzu Supervisor ist ein Verwaltungscluster.

Wichtig

Die Versionen der Tanzu CLI, die mit TKG 2.x und mit dem vSphere with Tanzu Supervisor in vSphere 8 kompatibel sind, sind nicht mit dem Supervisor-Cluster in vSphere 7 kompatibel. Um die Tanzu CLI mit einem vSphere with Tanzu Supervisor-Cluster auf vSphere 7 zu verwenden, verwenden Sie die Tanzu CLI-Version von TKG v1.6. Um die Versionen von Tanzu CLI zu verwenden, die mit TKG 2.x mit Supervisor kompatibel sind, führen Sie ein Upgrade auf vSphere 8 durch. Sie können einen eigenständigen TKG 2.x-Verwaltungscluster auf vSphere 7 bereitstellen, wenn der vSphere with Tanzu Supervisor-Cluster nicht vorhanden ist. Informationen zur Kompatibilität zwischen der Tanzu CLI und VMware-Produkten finden Sie in der Tanzu CLI-Dokumentation.

Der Empfehlung für die Verwendung des vSphere with Tanzu Supervisors als Verwaltungscluster entsprechend, verhält sich die Tanzu CLI wie folgt, gesteuert von den Konfigurationsparametern DEPLOY_TKG_ON_VSPHERE7 und ENABLE_TKGS_ON_VSPHERE7.

  • Für vSphere with Tanzu geeignet:
    • ENABLE_TKGS_ON_VSPHERE7: false informiert Sie, wenn die Bereitstellung eines Verwaltungsclusters nicht möglich ist, und wird beendet.
    • ENABLE_TKGS_ON_VSPHERE7: true öffnet den vSphere Client unter der Adresse, die von VSPHERE_SERVER in config.yml oder Ihrer lokalen Umgebung festgelegt wurde, sodass Sie Ihren Supervisor-Cluster wie in der vSphere-Dokumentation unter Aktivieren eines Supervisors für eine Zone mit vSphere-Netzwerk beschrieben konfigurieren können.
  • Nicht für vSphere with Tanzu geeignet:
    • DEPLOY_TKG_ON_VSPHERE7: false informiert Sie, wenn die Bereitstellung eines Tanzu Kubernetes Grid-Verwaltungsclusters möglich ist, aber nicht empfohlen wird, und fordert Sie auf, die Installation zu beenden oder mit der Bereitstellung des Verwaltungsclusters fortzufahren.
    • DEPLOY_TKG_ON_VSPHERE7: true stellt entgegen der Empfehlung für vSphere 8 einen TKG-Verwaltungscluster auf vSphere 8 bereit, wenn dies für Azure VMware Solution erforderlich ist.

Nächste Schritte

Erstellen Sie nach Aktualisierung der Konfigurationsdatei des Verwaltungsclusters den Verwaltungscluster. Befolgen Sie dazu die unter Bereitstellen von Verwaltungsclustern über eine Konfigurationsdatei beschriebenen Schritte.

check-circle-line exclamation-circle-line close-line
Scroll to top icon