In der Beispiel-YAML finden Sie Informationen zur Bereitstellung eines Tanzu Kubernetes-Clusters (TanzuKubernetesCluster) in verschiedenen vSphere-Zonen mithilfe der v1alpha3-API.
vSphere-Zonen und Fehlerdomänen
vSphere-Zonen bieten die Möglichkeit, hochverfügbare TKG-Cluster auf Supervisor zu erstellen. Wenn Sie einen TKG-Cluster in verschiedenen vSphere-Zonen bereitstellen, müssen Sie die Fehlerdomäne für jeden Knotenpool angeben.
Jede Fehlerdomäne wird einer vSphere-Zone zugeordnet, die dadurch mit einem vSphere-Cluster verknüpft wird. vSphere-Fehlerdomänen werden vom vSphere-Administrator beim Erstellen von vSphere-Zonen definiert und verwaltet. Das für den TKG-Cluster verwendete Speicherprofil muss als zonal
konfiguriert sein. Weitere Informationen finden Sie unter Erstellen einer vSphere-Speicherrichtlinie für TKG-Dienst-Cluster.
Wenn Sie Pods mit Replikaten in einem TKG-Cluster auf Supervisor bereitstellen, werden die Pod-Instanzen automatisch auf die vSphere-Zonen verteilt. Sie müssen bei der POD-Bereitstellung auf dem TKG-Cluster keine Zonendetails angeben.
kubectl get vspherezones
kubectl get availabilityzones
Beide Befehle stehen system:authenticated
-Benutzern zur Verfügung. vSphere-Zonen sind Ressourcen mit Supervisor-Geltungsbereich, daher müssen Sie keinen Namespace angeben.
v1alpha3-Beispiel: TKC in verschiedenen vSphere-Zonen
Die Beispiel-YAML stellt einen TKG-Cluster in verschiedenen vSphere-Zonen bereit.
failureDomain
“ für jeden nodePool an. Der Wert des Parameters ist der Name der vSphere-Zone.
apiVersion: run.tanzu.vmware.com/v1alpha3 kind: TanzuKubernetesCluster metadata: name: tkc-zoned namespace: tkg-cluster-ns spec: topology: controlPlane: replicas: 3 vmClass: guaranteed-medium storageClass: tkg2-storage-policy-zonal tkr: reference: name: v1.25.7---vmware.3-fips.1-tkg.1 nodePools: - name: nodepool-a01 replicas: 3 vmClass: guaranteed-medium storageClass: tkg-storage-policy-zonal failureDomain: az1 - name: nodepool-a02 replicas: 3 vmClass: guaranteed-medium storageClass: tkg-storage-policy-zonal failureDomain: az2 - name: nodepool-a03 replicas: 3 vmClass: guaranteed-medium storageClass: tkg-storage-policy-zonal failureDomain: az3 settings: storage: defaultClass: tkg-storage-policy-zonal network: cni: name: antrea services: cidrBlocks: ["198.51.100.0/12"] pods: cidrBlocks: ["192.0.2.0/16"] serviceDomain: cluster.local