请参阅示例 YAML,使用 v1alpha3 API 置备跨 vSphere 区域的 TanzuKubernetesCluster。
vSphere 区域和故障域
vSphere 区域提供了一种在 主管 上创建高可用性 TKG 集群的方法。如果要跨 vSphere 区域置备 TKG 集群,则必须为每个节点池提供故障域。
每个故障域映射到一个 vSphere 区域,因此 vSphere 区域将与一个 vSphere 集群相关联。故障域(也称为 vSphere 故障域)由 vSphere 管理员在创建 vSphere 区域时进行定义和管理。用于 TKG 集群的存储配置文件必须配置为 zonal
。请参见为 TKG 服务 集群创建 vSphere 存储策略。
将具有副本的 Pod 部署到 主管 上的 TKG 集群时,Pod 实例将自动在 vSphere 区域间分布。在 TKG 集群上部署 POD 时,无需提供区域详细信息。
要检查 TKG 环境中 vSphere 区域的可用性,请从将置备 TKG 集群的
vSphere 命名空间 运行以下命令之一:
kubectl get vspherezones
kubectl get availabilityzones
这两个命令均可供 system:authenticated
用户使用。vSphere 区域是 主管 范围的资源,因此无需指定命名空间。
v1alpha3 示例:跨 vSphere 区域的 TKC
示例 YAML 将置备跨 vSphere 区域的 TKG 集群。
在此示例中,您将在每个 nodePool 的
failureDomain
参数中指定 vSphere 区域。参数的值是 vSphere 区域的名称。
apiVersion: run.tanzu.vmware.com/v1alpha3 kind: TanzuKubernetesCluster metadata: name: tkc-zoned namespace: tkg-cluster-ns spec: topology: controlPlane: replicas: 3 vmClass: guaranteed-medium storageClass: tkg2-storage-policy-zonal tkr: reference: name: v1.25.7---vmware.3-fips.1-tkg.1 nodePools: - name: nodepool-a01 replicas: 3 vmClass: guaranteed-medium storageClass: tkg-storage-policy-zonal failureDomain: az1 - name: nodepool-a02 replicas: 3 vmClass: guaranteed-medium storageClass: tkg-storage-policy-zonal failureDomain: az2 - name: nodepool-a03 replicas: 3 vmClass: guaranteed-medium storageClass: tkg-storage-policy-zonal failureDomain: az3 settings: storage: defaultClass: tkg-storage-policy-zonal network: cni: name: antrea services: cidrBlocks: ["198.51.100.0/12"] pods: cidrBlocks: ["192.0.2.0/16"] serviceDomain: cluster.local