Konfiguration des Verwaltungsclusters für vSphere

Um eine Clusterkonfigurationsdatei zu erstellen, können Sie eine vorhandene Konfigurationsdatei für eine vorherige Bereitstellung in vSphere kopieren und aktualisieren. Alternativ können Sie eine Datei mithilfe einer leeren Vorlage von Grund auf neu erstellen.

Verwaltungscluster-Konfigurationsvorlage

Die folgende Vorlage enthält alle relevanten Optionen für die Bereitstellung von Verwaltungsclustern in vSphere. Sie können diese Vorlage kopieren und für die Bereitstellung von Verwaltungsclustern in vSphere verwenden.

Erforderliche Optionen sind unkommentiert. Optionale Einstellungen sind auskommentiert. Standardwerte sind, wenn erforderlich, enthalten.

#! ---------------------------------------------------------------------
#! Basic cluster creation configuration
#! ---------------------------------------------------------------------

CLUSTER_NAME:
CLUSTER_PLAN: dev
INFRASTRUCTURE_PROVIDER: vsphere
# CLUSTER_API_SERVER_PORT: # For deployments without NSX Advanced Load Balancer
ENABLE_CEIP_PARTICIPATION: true
ENABLE_AUDIT_LOGGING: true
CLUSTER_CIDR: 100.96.0.0/11
SERVICE_CIDR: 100.64.0.0/13
# CAPBK_BOOTSTRAP_TOKEN_TTL: 30m

#! ---------------------------------------------------------------------
#! vSphere configuration
#! ---------------------------------------------------------------------

VSPHERE_SERVER:
VSPHERE_USERNAME:
VSPHERE_PASSWORD:
VSPHERE_DATACENTER:
VSPHERE_RESOURCE_POOL:
VSPHERE_DATASTORE:
VSPHERE_FOLDER:
VSPHERE_NETWORK: VM Network
# VSPHERE_CONTROL_PLANE_ENDPOINT: # Required for Kube-Vip
# VSPHERE_CONTROL_PLANE_ENDPOINT_PORT: 6443
VIP_NETWORK_INTERFACE: "eth0"
# VSPHERE_TEMPLATE:
VSPHERE_SSH_AUTHORIZED_KEY:
# VSPHERE_STORAGE_POLICY_ID: ""
VSPHERE_TLS_THUMBPRINT:
VSPHERE_INSECURE: false
DEPLOY_TKG_ON_VSPHERE7: false
ENABLE_TKGS_ON_VSPHERE7: false

#! ---------------------------------------------------------------------
#! Node configuration
#! ---------------------------------------------------------------------

# SIZE:
# CONTROLPLANE_SIZE:
# WORKER_SIZE:
# OS_NAME: ""
# OS_VERSION: ""
# OS_ARCH: ""
# VSPHERE_NUM_CPUS: 2
# VSPHERE_DISK_GIB: 40
# VSPHERE_MEM_MIB: 4096
# VSPHERE_MTU:
# VSPHERE_CONTROL_PLANE_NUM_CPUS: 2
# VSPHERE_CONTROL_PLANE_DISK_GIB: 40
# VSPHERE_CONTROL_PLANE_MEM_MIB: 8192
# VSPHERE_WORKER_NUM_CPUS: 2
# VSPHERE_WORKER_DISK_GIB: 40
# VSPHERE_WORKER_MEM_MIB: 4096

#! ---------------------------------------------------------------------
#! VMware NSX specific configuration for enabling NSX routable pods
#! ---------------------------------------------------------------------

# NSXT_POD_ROUTING_ENABLED: false
# NSXT_ROUTER_PATH: ""
# NSXT_USERNAME: ""
# NSXT_PASSWORD: ""
# NSXT_MANAGER_HOST: ""
# NSXT_ALLOW_UNVERIFIED_SSL: false
# NSXT_REMOTE_AUTH: false
# NSXT_VMC_ACCESS_TOKEN: ""
# NSXT_VMC_AUTH_HOST: ""
# NSXT_CLIENT_CERT_KEY_DATA: ""
# NSXT_CLIENT_CERT_DATA: ""
# NSXT_ROOT_CA_DATA: ""
# NSXT_SECRET_NAME: "cloud-provider-vsphere-nsxt-credentials"
# NSXT_SECRET_NAMESPACE: "kube-system"

#! ---------------------------------------------------------------------
#! NSX Advanced Load Balancer configuration
#! ---------------------------------------------------------------------

AVI_ENABLE: false
AVI_CONTROL_PLANE_HA_PROVIDER: false
# AVI_NAMESPACE: "tkg-system-networking"
# AVI_DISABLE_INGRESS_CLASS: true
# AVI_AKO_IMAGE_PULL_POLICY: IfNotPresent
# AVI_ADMIN_CREDENTIAL_NAME: avi-controller-credentials
# AVI_CA_NAME: avi-controller-ca
# AVI_CONTROLLER:
# AVI_USERNAME: ""
# AVI_PASSWORD: ""
# AVI_CLOUD_NAME:
# AVI_SERVICE_ENGINE_GROUP:
# AVI_NSXT_T1LR: # Required for NSX ALB deployments on NSX Cloud.
# AVI_MANAGEMENT_CLUSTER_SERVICE_ENGINE_GROUP:
# AVI_DATA_NETWORK:
# AVI_DATA_NETWORK_CIDR:
# AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_NAME:
# AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_CIDR:
# AVI_CA_DATA_B64: ""
# AVI_LABELS: ""
# AVI_DISABLE_STATIC_ROUTE_SYNC: true
# AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER: false
# AVI_INGRESS_SHARD_VS_SIZE: ""
# AVI_INGRESS_SERVICE_TYPE: ""
# AVI_INGRESS_NODE_NETWORK_LIST: ""

#! ---------------------------------------------------------------------
#! Image repository configuration
#! ---------------------------------------------------------------------

# TKG_CUSTOM_IMAGE_REPOSITORY: ""
# TKG_CUSTOM_IMAGE_REPOSITORY_CA_CERTIFICATE: ""

#! ---------------------------------------------------------------------
#! Proxy configuration
#! ---------------------------------------------------------------------

# TKG_HTTP_PROXY: ""
# TKG_HTTPS_PROXY: ""
# TKG_NO_PROXY: ""

#! ---------------------------------------------------------------------
#! Machine Health Check configuration
#! ---------------------------------------------------------------------

ENABLE_MHC:
ENABLE_MHC_CONTROL_PLANE: true
ENABLE_MHC_WORKER_NODE: true
MHC_UNKNOWN_STATUS_TIMEOUT: 5m
MHC_FALSE_STATUS_TIMEOUT: 12m

#! ---------------------------------------------------------------------
#! Identity management configuration
#! ---------------------------------------------------------------------

IDENTITY_MANAGEMENT_TYPE: "none"

#! Settings for IDENTITY_MANAGEMENT_TYPE: "oidc"
# CERT_DURATION: 2160h
# CERT_RENEW_BEFORE: 360h
# OIDC_IDENTITY_PROVIDER_CLIENT_ID:
# OIDC_IDENTITY_PROVIDER_CLIENT_SECRET:
# OIDC_IDENTITY_PROVIDER_GROUPS_CLAIM: groups
# OIDC_IDENTITY_PROVIDER_ISSUER_URL:
# OIDC_IDENTITY_PROVIDER_SCOPES: "email,profile,groups,offline_access"
# OIDC_IDENTITY_PROVIDER_USERNAME_CLAIM: email

#! The following two variables are used to configure Pinniped JWTAuthenticator for workload clusters
# SUPERVISOR_ISSUER_URL:
# SUPERVISOR_ISSUER_CA_BUNDLE_DATA:

#! Settings for IDENTITY_MANAGEMENT_TYPE: "ldap"
# LDAP_BIND_DN:
# LDAP_BIND_PASSWORD:
# LDAP_HOST:
# LDAP_USER_SEARCH_BASE_DN:
# LDAP_USER_SEARCH_FILTER:
# LDAP_USER_SEARCH_ID_ATTRIBUTE: dn
# LDAP_USER_SEARCH_NAME_ATTRIBUTE:
# LDAP_GROUP_SEARCH_BASE_DN:
# LDAP_GROUP_SEARCH_FILTER:
# LDAP_GROUP_SEARCH_NAME_ATTRIBUTE: dn
# LDAP_GROUP_SEARCH_USER_ATTRIBUTE: dn
# LDAP_ROOT_CA_DATA_B64:

#! ---------------------------------------------------------------------
#! Antrea CNI configuration
#! ---------------------------------------------------------------------

# ANTREA_NO_SNAT: true
# ANTREA_NODEPORTLOCAL: true
# ANTREA_NODEPORTLOCAL_ENABLED: true
# ANTREA_NODEPORTLOCAL_PORTRANGE: 61000-62000
# ANTREA_TRAFFIC_ENCAP_MODE: "encap"
# ANTREA_PROXY: true
# ANTREA_PROXY_ALL: true
# ANTREA_PROXY_LOAD_BALANCER_IPS: false
# ANTREA_PROXY_NODEPORT_ADDRS:
# ANTREA_PROXY_SKIP_SERVICES: ""
# ANTREA_POLICY: true
# ANTREA_TRACEFLOW: true
# ANTREA_DISABLE_UDP_TUNNEL_OFFLOAD: false
# ANTREA_ENABLE_USAGE_REPORTING: false
# ANTREA_EGRESS: true
# ANTREA_EGRESS_EXCEPT_CIDRS: ""
# ANTREA_FLOWEXPORTER: false
# ANTREA_FLOWEXPORTER_COLLECTOR_ADDRESS: "flow-aggregator.flow-aggregator.svc:4739:tls"
# ANTREA_FLOWEXPORTER_POLL_INTERVAL: "5s"
# ANTREA_FLOWEXPORTER_ACTIVE_TIMEOUT: "5s"
# ANTREA_FLOWEXPORTER_IDLE_TIMEOUT: "15s"
# ANTREA_IPAM: false
# ANTREA_KUBE_APISERVER_OVERRIDE: ""
# ANTREA_MULTICAST: false
# ANTREA_MULTICAST_INTERFACES: ""
# ANTREA_NETWORKPOLICY_STATS: true
# ANTREA_SERVICE_EXTERNALIP: true
# ANTREA_TRANSPORT_INTERFACE: ""
# ANTREA_TRANSPORT_INTERFACE_CIDRS: ""

Allgemeine vSphere-Konfiguration

Geben Sie Informationen an, um Tanzu Kubernetes Grid die Anmeldung bei vSphere zu ermöglichen und die Ressourcen festzulegen, die Tanzu Kubernetes Grid verwenden kann.

  • Aktualisieren Sie die Einstellungen VSPHERE_SERVER, VSPHERE_USERNAME und VSPHERE_PASSWORD mit der IP-Adresse oder dem FQDN der vCenter Server-Instanz und den zu verwendenden Anmeldedaten.
  • Geben Sie die vollständigen Pfade des vSphere Datencenters, der Ressourcenpools, der Datenspeicher und des Ordners an, in denen der Verwaltungscluster bereitgestellt werden soll:

    • VSPHERE_DATACENTER: /<MY-DATACENTER>
    • VSPHERE_RESOURCE_POOL: /<MY-DATACENTER>/host/<CLUSTER>/Resources
    • VSPHERE_DATASTORE: /<MY-DATACENTER>/datastore/<MY-DATASTORE>
    • VSPHERE_FOLDER: /<MY-DATACENTER>/vm/<FOLDER>.
  • Legen Sie je nach HA-Anbieter für die Steuerungsebenen-API des Clusters VSPHERE_CONTROL_PLANE_ENDPOINT fest oder lassen Sie das Feld leer:
    • Kube-VIP: Legen Sie dies auf eine statische virtuelle IP-Adresse oder einen vollqualifizierten Domänennamen (FQDN) fest, der der VIP-Adresse zugeordnet ist.
    • NSX Advanced Load Balancer: Lassen Sie das Feld leer, sofern Sie keinen Endpoint angeben müssen. Ist dies jedoch der Fall, verwenden Sie eine statische Adresse innerhalb des VIP-Netzwerkbereichs des IPAM-Profils, den Sie manuell zum statischen IP-Pool hinzugefügt haben, oder einen FQDN, der der statischen Adresse zugeordnet ist.
  • Geben Sie in VSPHERE_NETWORK bzw. VIP_NETWORK_INTERFACE ein Netzwerk und eine Netzwerkschnittstelle an.
  • Heben Sie optional die Kommentierung von VSPHERE_TEMPLATE auf und aktualisieren Sie sie mit dem Pfad zu einer OVA-Datei, wenn Sie mehrere benutzerdefinierte OVA-Images für dieselbe Kubernetes-Version verwenden. Verwenden Sie das Format /MY-DC/vm/MY-FOLDER-PATH/MY-IMAGE. Weitere Informationen finden Sie unter Bereitstellen eines Clusters mit einem benutzerdefinierten OVA-Image in Erstellen und Verwalten von TKG 2.3-Arbeitslastclustern mit der Tanzu CLI.
  • Geben Sie bei der Option VSPHERE_SSH_AUTHORIZED_KEY Ihren SSH-Schlüssel an. Informationen zum Abrufen eines SSH-Schlüssels finden Sie unter Vorbereitung der Bereitstellung von Verwaltungsclustern in vSphere.
  • Geben Sie in der Variable VSPHERE_TLS_THUMBPRINT den TLS-Fingerabdruck an oder legen Sie VSPHERE_INSECURE: true fest, um die Fingerabdrucküberprüfung zu überspringen.
  • Heben Sie optional die Kommentierung von VSPHERE_STORAGE_POLICY_ID auf und geben Sie den Namen einer Speicherrichtlinie des zu verwendenden Verwaltungsclusters für die VMs an, welche Sie auf vCenter Server konfiguriert haben.

Beispiel:

#! ---------------------------------------------------------------------
#! vSphere configuration
#! ---------------------------------------------------------------------

VSPHERE_SERVER: 10.185.12.154
VSPHERE_USERNAME: [email protected]
VSPHERE_PASSWORD: <encoded:QWRtaW4hMjM=>
VSPHERE_DATACENTER: /dc0
VSPHERE_RESOURCE_POOL: /dc0/host/cluster0/Resources/tanzu
VSPHERE_DATASTORE: /dc0/datastore/sharedVmfs-1
VSPHERE_FOLDER: /dc0/vm/tanzu
VSPHERE_NETWORK: "VM Network"
VSPHERE_CONTROL_PLANE_ENDPOINT: 10.185.11.134
VIP_NETWORK_INTERFACE: "eth0"
VSPHERE_TEMPLATE: /dc0/vm/tanzu/my-image.ova
VSPHERE_SSH_AUTHORIZED_KEY: ssh-rsa AAAAB3[...]tyaw== [email protected]
VSPHERE_TLS_THUMBPRINT: 47:F5:83:8E:5D:36:[...]:72:5A:89:7D:29:E5:DA
VSPHERE_INSECURE: false
VSPHERE_STORAGE_POLICY_ID: "My storage policy"

Knotengrößen konfigurieren

Die Tanzu CLI erstellt die einzelnen Knoten von Verwaltungs- und Arbeitslastclustern gemäß den Einstellungen, die Sie in der Konfigurationsdatei angeben. In vSphere können Sie alle Knoten-VMs so konfigurieren, dass sie dieselben vordefinierten Konfigurationen aufweisen, oder Sie können unterschiedliche vordefinierte Konfigurationen für die Steuerungsebenen- und Worker-Knoten festlegen oder die Konfiguration der Knoten anpassen. Mithilfe dieser Einstellungen können Sie Cluster erstellen, die Knoten mit anderen Konfigurationen als die Verwaltungsclusterknoten aufweisen. Sie können auch Cluster erstellen, in denen Steuerungsebenen- und Worker-Knoten jeweils unterschiedliche Konfigurationen aufweisen.

Vordefinierte Knotengrößen

Die Tanzu CLI bietet die folgenden vordefinierten Konfigurationen für Clusterknoten:

  • small: 2 CPUs, 4 GB Arbeitsspeicher, 20 GB Festplatte
  • medium: 2 CPUs, 8 GB Arbeitsspeicher, 40 GB Festplatte
  • large: 4 CPUs, 16 GB Arbeitsspeicher, 40 GB Festplatte
  • extra-large: 8 CPUs, 32 GB Arbeitsspeicher, 80 GB Festplatte

Um einen Cluster zu erstellen, in dem alle Steuerungsebenen- und Worker-Knoten-VMs dieselbe Größe aufweisen, geben Sie die Variable SIZE an. Wenn Sie die Variable SIZE festlegen, werden alle Knoten mit der von Ihnen festgelegten Konfiguration erstellt.

SIZE: "large"

Um einen Cluster zu erstellen, bei dem die Steuerungsebenen- und Worker-Knoten-VMs unterschiedliche Größen aufweisen, geben Sie die Optionen CONTROLPLANE_SIZE und WORKER_SIZE an.

CONTROLPLANE_SIZE: "medium"
WORKER_SIZE: "extra-large"

Sie können die Optionen CONTROLPLANE_SIZE und WORKER_SIZE mit der Option SIZE kombinieren. Wenn Sie beispielsweise SIZE: "large" mit WORKER_SIZE: "extra-large" angeben, werden die Knoten der Steuerungsebene auf large und die Worker-Knoten auf extra-large festgelegt.

SIZE: "large"
WORKER_SIZE: "extra-large"

Benutzerdefinierte Knotengrößen

Sie können die Konfiguration der Knoten anpassen, anstatt die vordefinierten Konfigurationen zu verwenden.

Um dieselbe benutzerdefinierte Konfiguration für alle Knoten zu verwenden, geben Sie die Optionen VSPHERE_NUM_CPUS, VSPHERE_DISK_GIB und VSPHERE_MEM_MIB an.

VSPHERE_NUM_CPUS: 2
VSPHERE_DISK_GIB: 40
VSPHERE_MEM_MIB: 4096

Um verschiedene benutzerdefinierte Konfigurationen für Steuerungsebenenknoten und Worker-Knoten festzulegen, geben Sie die Optionen VSPHERE_CONTROL_PLANE_* und VSPHERE_WORKER_* an.

VSPHERE_CONTROL_PLANE_NUM_CPUS: 2
VSPHERE_CONTROL_PLANE_DISK_GIB: 20
VSPHERE_CONTROL_PLANE_MEM_MIB: 8192
VSPHERE_WORKER_NUM_CPUS: 4
VSPHERE_WORKER_DISK_GIB: 40
VSPHERE_WORKER_MEM_MIB: 4096

Sie können diese Einstellungen mit den Optionen SIZE, CONTROLPLANE_SIZE und WORKER_SIZE überschreiben.

Konfigurieren von NSX Advanced Load Balancer

Wichtig

Die Konfigurationsvariablen AVI_DISABLE_INGRESS_CLASS, AVI_DISABLE_STATIC_ROUTE_SYNC AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER funktionieren in TKG v2.3 nicht. Informationen zum Festlegen eines dieser Werte auf true, dem Nicht-Standardwert, finden Sie in der Problemumgehung im Abschnitt Bekanntes Problem: Einige NSX ALB-Konfigurationsvariablen funktionieren nicht in den Versionshinweisen.

Um NSX Advanced Load Balancer zu verwenden, müssen Sie ihn zuerst in Ihrer vSphere-Umgebung bereitstellen. Weitere Informationen finden Sie unter Installation von NSX Advanced Load Balancer. Konfigurieren Sie nach der Bereitstellung von NSX Advanced Load Balancer einen vSphere-Verwaltungscluster für die Verwendung des Lastausgleichsdiensts.

Beispiel:

AVI_ENABLE: true
AVI_CONTROL_PLANE_HA_PROVIDER: true
AVI_NAMESPACE: "tkg-system-networking"
AVI_DISABLE_INGRESS_CLASS: true
AVI_AKO_IMAGE_PULL_POLICY: IfNotPresent
AVI_ADMIN_CREDENTIAL_NAME: avi-controller-credentials
AVI_CA_NAME: avi-controller-ca
AVI_CONTROLLER: 10.185.10.217
AVI_USERNAME: "admin"
AVI_PASSWORD: "<password>"
AVI_CLOUD_NAME: "Default-Cloud"
AVI_SERVICE_ENGINE_GROUP: "Default-Group"
AVI_NSXT_T1LR:""
AVI_DATA_NETWORK: nsx-alb-dvswitch
AVI_DATA_NETWORK_CIDR: 10.185.0.0/20
AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_NAME: ""
AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_CIDR: ""
AVI_CA_DATA_B64: LS0tLS1CRU[...]UtLS0tLQo=
AVI_LABELS: ""
AVI_DISABLE_STATIC_ROUTE_SYNC: true
AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER: false
AVI_INGRESS_SHARD_VS_SIZE: ""
AVI_INGRESS_SERVICE_TYPE: ""
AVI_INGRESS_NODE_NETWORK_LIST: ""

Standardmäßig wird der Lastausgleichsdienst vom Verwaltungscluster und allen von ihm verwalteten Arbeitslastclustern verwendet. Informationen zum Konfigurieren der Variablen von NSX Advanced Load Balancer finden Sie unter NSX Advanced Load Balancer in der Variablenreferenz für Konfigurationsdatei.

NSX Advanced Load Balancer als Steuerungsebenen-Endpointanbieter

Sie können NSX ALB als Steuerungsebenen-Endpointanbieter in Tanzu Kubernetes Grid verwenden. Die folgende Tabelle beschreibt die Unterschiede zwischen NSX ALB und Kube-Vip, dem standardmäßigen Steuerungsebenen-Endpointanbieter in Tanzu Kubernetes Grid.

Kube-Vip NSX ALB
Sendet Datenverkehr an Einzelnen Steuerungsebenenknoten
Mehrere Steuerungsebenenknoten
Erfordert die Konfiguration von Endpoint-VIP Ja
Nein
Weist VIP aus dem statischen IP-Pool von NSX ALB zu

Konfiguration von routingfähigen NSX-Pods

Wenn Ihre vSphere-Umgebung NSX verwendet, können Sie die Implementierung von routingfähigen oder NO_NAT-Pods konfigurieren.

Hinweis

Routingfähige NSX-Pods sind eine experimentelle Funktion in dieser Version. Informationen zur Implementierung von routingfähigen NSX Pods werden dieser Dokumentation in Kürze hinzugefügt.

#! ---------------------------------------------------------------------
#! NSX specific configuration for enabling NSX routable pods
#! ---------------------------------------------------------------------

# NSXT_POD_ROUTING_ENABLED: false
# NSXT_ROUTER_PATH: ""
# NSXT_USERNAME: ""
# NSXT_PASSWORD: ""
# NSXT_MANAGER_HOST: ""
# NSXT_ALLOW_UNVERIFIED_SSL: false
# NSXT_REMOTE_AUTH: false
# NSXT_VMC_ACCESS_TOKEN: ""
# NSXT_VMC_AUTH_HOST: ""
# NSXT_CLIENT_CERT_KEY_DATA: ""
# NSXT_CLIENT_CERT_DATA: ""
# NSXT_ROOT_CA_DATA: ""
# NSXT_SECRET_NAME: "cloud-provider-vsphere-nsxt-credentials"
# NSXT_SECRET_NAMESPACE: "kube-system"

Konfiguration für IPv6

So konfigurieren Sie einen Verwaltungscluster, der IPv6 für eine IPv6-Netzwerkumgebung unterstützt:

  1. Bereiten Sie die Umgebung wie in (Optional) Variablen und Regeln für IPv6 beschrieben vor.

  2. Legen Sie die folgenden Variablen in der Konfigurationsdatei für den Verwaltungscluster fest.

    • Legen Sie TKG_IP_FAMILY auf ipv6 fest.
    • Legen Sie VSPHERE_CONTROL_PLANE_ENDPOINT auf eine statische IPv6-Adresse fest.
    • (Optional) Legen Sie die CLUSTER_CIDR and SERVICE_CIDR fest. Standardmäßig sind dies fd00:100:64::/48 und fd00:100:96::/108.

Mehrere Verfügbarkeitszonen konfigurieren

Sie können einen Verwaltungs- oder Arbeitslastcluster konfigurieren, der Knoten in mehreren Verfügbarkeitszonen (Availability Zones, AZs) ausführt, wie unter Ausführen von Clustern über mehrere Verfügbarkeitszonen hinweg beschrieben.

Voraussetzungen

So konfigurieren Sie einen Cluster mit Knoten, die über mehrere AZs hinweg bereitgestellt werden:

  • Setzen Sie VSPHERE_REGION und VSPHERE_ZONE auf die Tag-Kategorien Region und Zone, k8s-region und k8s-zone.
  • Setzen Sie VSPHERE_AZ_0, VSPHERE_AZ_1, VSPHERE_AZ_2 mit den Namen der VsphereDeploymentZone-Objekte, in denen die Maschinen bereitgestellt werden müssen.
    • Die mit VSPHERE_AZ_0 verknüpfte VsphereDeploymentZone ist die VSphereFailureDomain, in der die Maschinenbereitstellung mit der Endung md-0 bereitgestellt wird, VSPHERE_AZ_1 ist die VSphereFailureDomain, in der die Maschinenbereitstellung mit der Endung md-1 bereitgestellt wird, und VSPHERE_AZ_2 ist die VSphereFailureDomain, in der die Maschinenbereitstellung mit der Endung md-2 bereitgestellt wird
    • Wenn eine der AZ-Konfigurationen nicht definiert ist, wird diese Maschinenbereitstellung ohne VSphereFailureDomain bereitgestellt.
  • WORKER_MACHINE_COUNT legt die Gesamtzahl der Worker für den Cluster fest. Die Gesamtzahl der Worker wird im Round-Robin-Verfahren auf die Anzahl der angegebenen AZs verteilt.
  • Mit VSPHERE_AZ_CONTROL_PLANE_MATCHING_LABELS werden Schlüssel/Wert-Auswahlbezeichnungen für die Verfügbarkeitszonen festgelegt, in denen Clusterknoten auf Steuerungsebene bereitgestellt werden können.
    • Legen Sie diese Variable fest, wenn VSPHERE_REGION und VSPHERE_ZONE festgelegt sind.
    • Die Bezeichnungen müssen in den von Ihnen erstellten VSphereDeploymentZone-Ressourcen vorhanden sein.
    • Mit diesen Bezeichnungen können Sie alle AZs in einer Region und einer Umgebung angeben, ohne sie einzeln auflisten zu müssen, z. B.: "region=us-west-1,environment=staging".

Eine vollständige Liste der Optionen, die Sie bei der Bereitstellung von Clustern unter vSphere angeben müssen, finden Sie in der Variablenreferenz für Konfigurationsdatei.

Konfigurieren von Knoten-IPAM

TKG unterstützt clusterinternes Knoten-IPAM für eigenständige Verwaltungscluster auf vSphere und die von ihnen verwalteten klassenbasierten Arbeitslastcluster. Weitere Informationen und aktuelle Einschränkungen finden Sie unter Knoten-IPAM in Erstellen und Verwalten von TKG 2.3-Arbeitslastclustern mit der Tanzu CLI.

Sie können einen Verwaltungscluster mit Knoten-IPAM nicht direkt über die Installationsprogramm-Schnittstelle einrichten. Sie müssen ihn über eine Konfigurationsdatei bereitstellen. Sie können die Konfigurationsdatei jedoch erstellen, indem Sie die Installationsprogramm-Schnittstelle ausführen, auf Konfiguration überprüfen (Review Configuration) > Konfiguration exportieren (Export Configuration) klicken und dann die generierte Konfigurationsdatei wie unten beschrieben bearbeiten.

So stellen Sie einen Verwaltungscluster bereit, der clusterinternes IPAM für seine Knoten verwendet:

  1. Als Voraussetzung müssen Sie IP-Adressen von Nameservern sammeln, die für die Steuerungsebene und die Worker-Knoten des Clusters verwendet werden sollen. Dies ist erforderlich, da die Clusterknoten keine Nameserver mehr über DHCP erhalten, um Namen in vCenter aufzulösen.

  2. Bearbeiten Sie die Konfigurationsdatei des Verwaltungsclusters, um Einstellungen wie die folgenden einzubeziehen (Siehe Beschreibung in der Tabelle Knoten-IPAM der Variablenreferenz für Konfigurationsdatei):

    MANAGEMENT_NODE_IPAM_IP_POOL_GATEWAY: "10.10.10.1"
    MANAGEMENT_NODE_IPAM_IP_POOL_ADDRESSES: "10.10.10.2-10.10.10.100,10.10.10.105"
    MANAGEMENT_NODE_IPAM_IP_POOL_SUBNET_PREFIX: "24"
    CONTROL_PLANE_NODE_NAMESERVERS: "10.10.10.10,10.10.10.11"
    WORKER_NODE_NAMESERVERS: "10.10.10.10,10.10.10.11"
    

    Wobei CONTROL_PLANE_NODE_NAMESERVERS und WORKER_NODE_NAMESERVERS die Adressen der zu verwendenden Nameserver sind. Sie können entweder einen einzelnen Nameserver oder zwei durch Komma getrennte Nameserver angeben. In Umgebungen, in denen Redundanz erforderlich ist, benötigen Sie möglicherweise mehr als einen Nameserver. In diesem Fall verwendet eine Knoten-VM jeweils nur einen einzigen Nameserver, und sekundäre Nameserver werden verwendet, wenn der erste Nameserver nicht aufgelöst werden kann. Sie können auch mehr als einen Nameserver angeben, um die Nameserver für die Steuerungsebene bzw. die Worker-Knoten unabhängig voneinander zu ändern. Auf diese Weise kann die Dienstauflösung auf den verschiedenen Knotentypen gesteuert werden.

Konfigurieren der Clusterknoten-MTU

Um die maximale Übertragungseinheit (MTU) für Verwaltungs- und Arbeitslastcluster-Knoten zu konfigurieren, legen Sie die Variable VSPHERE_MTU fest. Das Festlegen von VSPHERE_MTU gilt sowohl für Verwaltungscluster als auch für Arbeitslastcluster.

Wenn nicht angegeben, beträgt die Standard-MTU für vSphere-Knoten 1500. Der Maximalwert ist 9000. Informationen zu MTUs finden Sie unter Grundlegende Informationen zu vSphere-Netzwerken in der Dokumentation zu vSphere 8.

Verwaltungscluster in vSphere with Tanzu

In vSphere 7 und vSphere 8 stellt vSphere with Tanzu einen integrierten Supervisor bereit, der als Verwaltungscluster funktioniert und eine bessere Benutzererfahrung bietet als ein eigenständiger Verwaltungscluster. Die Bereitstellung eines Tanzu Kubernetes Grid-Verwaltungsclusters in vSphere 7 oder vSphere 8 wird auch bei nicht vorhandenem Supervisor unterstützt, es ist jedoch vorzuziehen, vSphere with Tanzu zu aktivieren und nach Möglichkeit den Supervisor zu verwenden. Azure VMware Solution unterstützt keinen Supervisor-Cluster, sodass Sie einen Verwaltungscluster bereitstellen müssen. Weitere Informationen finden Sie unter vSphere with Tanzu Supervisor ist ein Verwaltungscluster.

Wenn vSphere with Tanzu aktiviert ist, gibt die Benutzeroberfläche des Installationsprogramms an, dass Sie den TKG-Dienst als bevorzugte Methode zum Ausführen von Kubernetes-Arbeitslasten verwenden können. In diesem Fall benötigen Sie keinen eigenständigen Verwaltungscluster. Sie bietet eine Auswahlmöglichkeit:

  • Mit der Option Konfigurieren vSphere with Tanzu (Configure vSphere with Tanzu) wird der vSphere Client geöffnet, sodass Sie Ihren Supervisor konfigurieren können, wie unter Konfiguration und Verwalten eines Supervisors in der Dokumentation zu vSphere 8 beschrieben.

  • Mit der Option TKG-Verwaltungscluster bereitstellen (Deploy TKG Management Cluster) können Sie weiterhin einen eigenständigen Verwaltungscluster für vSphere 7 oder vSphere 8 und je nach Bedarf für eine Azure VMware Solution bereitstellen.

Nächste Schritte

Erstellen Sie nach Aktualisierung der Konfigurationsdatei des Verwaltungsclusters den Verwaltungscluster. Befolgen Sie dazu die unter Bereitstellen von Verwaltungsclustern über eine Konfigurationsdatei beschriebenen Schritte.

check-circle-line exclamation-circle-line close-line
Scroll to top icon