In der Beispiel-YAML finden Sie Informationen zur Bereitstellung eines Tanzu Kubernetes-Clusters (TanzuKubernetesCluster) in verschiedenen vSphere-Zonen mithilfe der v1alpha3-API.

vSphere-Zonen und Fehlerdomänen

vSphere-Zonen bieten die Möglichkeit, hochverfügbare TKG-Cluster auf Supervisor zu erstellen. Wenn Sie einen TKG-Cluster in verschiedenen vSphere-Zonen bereitstellen, müssen Sie die Fehlerdomäne für jeden Knotenpool angeben.

Jede Fehlerdomäne wird einer vSphere-Zone zugeordnet, die dadurch mit einem vSphere-Cluster verknüpft wird. vSphere-Fehlerdomänen werden vom vSphere-Administrator beim Erstellen von vSphere-Zonen definiert und verwaltet. Das für den TKG-Cluster verwendete Speicherprofil muss als zonal konfiguriert sein. Weitere Informationen finden Sie unter Erstellen einer vSphere-Speicherrichtlinie für TKG-Dienst-Cluster.

Wenn Sie Pods mit Replikaten in einem TKG-Cluster auf Supervisor bereitstellen, werden die Pod-Instanzen automatisch auf die vSphere-Zonen verteilt. Sie müssen bei der POD-Bereitstellung auf dem TKG-Cluster keine Zonendetails angeben.

Um die Verfügbarkeit von vSphere-Zonen in der TKG-Umgebung zu überprüfen, führen Sie einen der folgenden Befehle in dem vSphere-Namespace aus, in dem Sie den TKG-Cluster bereitstellen:
kubectl get vspherezones
kubectl get availabilityzones

Beide Befehle stehen system:authenticated-Benutzern zur Verfügung. vSphere-Zonen sind Ressourcen mit Supervisor-Geltungsbereich, daher müssen Sie keinen Namespace angeben.

v1alpha3-Beispiel: TKC in verschiedenen vSphere-Zonen

Die Beispiel-YAML stellt einen TKG-Cluster in verschiedenen vSphere-Zonen bereit.

In diesem Beispiel geben Sie die vSphere-Zone im Parameter „ failureDomain“ für jeden nodePool an. Der Wert des Parameters ist der Name der vSphere-Zone.
apiVersion: run.tanzu.vmware.com/v1alpha3
kind: TanzuKubernetesCluster
metadata:
  name: tkc-zoned
  namespace: tkg-cluster-ns
spec:
  topology:
    controlPlane:
      replicas: 3
      vmClass: guaranteed-medium
      storageClass: tkg2-storage-policy-zonal
      tkr:
        reference:
          name: v1.25.7---vmware.3-fips.1-tkg.1
    nodePools:
      - name: nodepool-a01
        replicas: 3
        vmClass: guaranteed-medium
        storageClass: tkg-storage-policy-zonal
        failureDomain: az1
      - name: nodepool-a02
        replicas: 3
        vmClass: guaranteed-medium
        storageClass: tkg-storage-policy-zonal
        failureDomain: az2
      - name: nodepool-a03
        replicas: 3
        vmClass: guaranteed-medium
        storageClass: tkg-storage-policy-zonal
        failureDomain: az3
  settings:
    storage:
      defaultClass: tkg-storage-policy-zonal
    network:
      cni:
        name: antrea
      services:
        cidrBlocks: ["198.51.100.0/12"]
      pods:
        cidrBlocks: ["192.0.2.0/16"]
      serviceDomain: cluster.local