除非另有說明,否則這些版本說明適用於 Tanzu Kubernetes Grid (TKG) 的所有 v2.3.x 修補程式版本。
TKG v2.3 以可下載的 Tanzu CLI 套件形式發行,用來部署版本化 TKG 獨立管理叢集。TKG v2.3 支援使用可在多個基礎架構 (包括 vSphere、AWS 和 Azure) 上執行的獨立管理叢集建立和管理以類別為基礎的工作負載叢集。
重要vSphere 8.0.1c 和更新版本中的 vSphere with Tanzu 主管執行 TKG v2.2。舊版的 vSphere 8 執行 TKG v2.0,該版本並非獨立於主管發佈。從 TKG 2.1 開始,可以使用執行 TKG 2.x 的獨立管理叢集。由於主管中嵌入了較早的 TKG 版本,某些獨立 TKG 2.3 管理叢集中可用的功能,在使用 vSphere with Tanzu 建立工作負載叢集時不可用。更新的 TKG 版本將嵌入到未來 vSphere 更新版本的主管中。因此,特定時間最新 vSphere with Tanzu 版本中嵌入的 TKG 版本可能不如最新獨立 TKG 版本新。但是,完全支援與所有 TKG v2.x 版本相容的 Tanzu CLI 版本與 vSphere 8 所有版本中的主管一起使用。例如,Tanzu CLI v1.0.0 與主管提供的 TKG 2.2 外掛程式完全向後相容。
與 vSphere 8 中的 TKG 2.x 和 vSphere with Tanzu 主管相容的 Tanzu CLI 版本與 vSphere 7 中的主管叢集不相容。如要在 vSphere 7 上對 vSphere with Tanzu 主管叢集使用 Tanzu CLI,請使用 TKG v1.6 中的 Tanzu CLI 版本。如要使用與具有主管的 TKG 2.x 相容的 Tanzu CLI 版本,請升級到 vSphere 8。如果 vSphere with Tanzu 主管叢集不存在,您可以將獨立 TKG 2.x 管理叢集部署到 vSphere 7。有關 Tanzu CLI 與 VMware 產品之間相容性的資訊,請參閱 Tanzu CLI 文件。
Tanzu Kubernetes Grid v2.3.x 包含以下的新功能:
Tanzu Kubernetes Grid v2.3.1 的新增功能:
--vsphere-vm-template-name
選項指定目標 OVA 範本,如選擇要升級至的 OVA 範本中所述。anzu Kubernetes Grid v2.3.0 的新增功能:
tiny
TKr 新增到管理叢集。POD_SECURITY_STANDARD_*
,以及Cluster
規格 podSecurityStandard
設定配置叢集範圍的 Pod 安全性許可 (PSA) 控制器,如 Pod 安全性許可控制器中所述。
VSPHERE_MTU
為 vSphere 上的管理叢集節點和工作負載叢集節點設定傳輸單元最大值 (MTU) 的大小;請參閱設定叢集節點 MTU。CONTROL_PLANE_NODE_NAMESERVERS
和 WORKER_NODE_NAMESERVERS
現在處於穩定狀態。您可以為在 Ubuntu 或 Photon 上執行的節點設定這些變數;不支援 Windows。有關使用範例,請參閱節點 IPAM。--max-unhealthy
和 --machine-deployment
;請參閱管理工作負載叢集的機器健全狀況檢查。tanzu mc credentials update
選項 --vsphere-thumbprint
允許您使用 Tanzu CLI 更新管理叢集和 vSphere 上工作負載叢集中 vCenter Server 的 TLS 指紋。請參閱更新叢集認證。Pinniped 元件不再將 Dex 用於 LDAP 身分識別提供者,因此導致以下組態變更:
LDAP_GROUP_SEARCH_SKIP_ON_REFRESH
LDAP_BIND_DN
和 LDAP_BIND_PASSWORD
。LDAP_GROUP_SEARCH_NAME_ATTRIBUTE
預設為 dn
。LDAP_USER_SEARCH_FILTER
和 LDAP_GROUP_SEARCH_FILTER
必須採用 Pinniped 使用的格式進行設定。LDAP_USER_SEARCH_USERNAME
、LDAP_USER_SEARCH_EMAIL_ATTRIBUTE
和 LDAP_GROUP_SEARCH_GROUP_ATTRIBUTE
。移除 Dex 意味著,必須先變更管理叢集的 LDAP 設定,然後再將其升級到 TKG v2.3;請參閱 (僅限 LDAP) 更新 LDAP 設定。
有關新的和更新的組態變數的詳細資訊,請參閱《組態檔變數參考》中的身分識別提供者 - LDAP。
grafana
容器映像。計劃在未來版本中從 BoM 中移除其他 Tanzu Standard 元件。
使用 TKG v2.3,Tanzu Standard 套件存放庫與 TKG 分開進行版本控制和散發,其版本控制基於日期戳記。有關詳細資訊,請參閱下面的 Tanzu Standard 存放庫 v2023.7.13。
對於每個 TKG v2.3 修補程式版本,其最新的相容 Tanzu Standard 存放庫版本的版本資訊包括:
從 TKG v2.2 起,VMware 對 TKG 和 TKrs 較舊的修補程式版本支援政策發生變化,這些版本為 TKG 封裝了 Kubernetes 版本。TKG v2.1 和較舊次要 TKG 版本的支援政策則無變化。
前兩節總結了在適用於每個 TKG 和 TKr 的支援政策下,對所有目前支援的 TKG 和 TKr 版本的支援。
下面的第三節列出了 Tanzu Standard 存放庫中受 Kubernetes v1.26、v1.25 和 v1.24 TKr 支援的套件版本。
Tanzu Kubernetes Grid 的每個版本都增加了對其管理叢集的 Kubernetes 版本以及其他 Kubernetes 版本的支援,且這些版本是以 Tanzu Kubernetes 版本 (Tkr) 形式發行,但標記為已知問題者除外。
次要版本:發行時,VMware 支援具有 Kubernetes v1.26、v1.25 和 v1.24 的 TKG v2.3。一旦 TKG v2.1 達到其終止一般支援里程碑後,VMware將不再支援具有 TKG 的 Kubernetes v1.24。一旦 TKG v2.2 達到其終止一般支援里程碑,VMware將不再支援具有 TKG 的 Kubernetes v1.25。
修補程式版本:在 VMware 為次要分支版本發佈新的 TKr 修補程式版本後,會將對較舊修補程式版本的支援保留兩個月。這為客戶提供了 2 個月的時間升級到新的 TKr 修補程式版本。從 TKG v2.2 起,VMware 不支援 Kubernetes 先前次要分支版本中的所有 TKr 修補程式版本。
Tanzu Kubernetes Grid 修補程式版本支援和支援的 TKr 修補程式版本如下所列。
Tanzu Kubernetes Grid 版本 | 管理叢集的 Kubernetes 版本 | 提供的 Kubernetes (TKr) 版本 |
---|---|---|
2.3.1 | 1.26.8 | 1.26.8、1.25.13、1.24.17 |
2.3.0 | 1.26.5 | 1.26.5、1.25.10、1.24.14 |
2.2.0 | 1.25.7 | 1.25.7、1.24.11、1.23.17 |
2.1.1 | 1.24.10 | 1.24.10、1.23.16、1.22.17 |
2.1.0 | 1.24.9 | 1.24.9、1.23.15、1.22.17 |
VMware 支援如下所示的 TKG 版本:
次要版本:VMware 支援遵循 N-2 生命週期政策的 TKG,該政策適用於最新和之前的兩個次要 TKG 版本。有關詳細資訊,請參見 VMware產品生命週期矩陣。
修補程式版本:VMware 不支援以前的所有 TKG 修補程式版本。在 Vmware 發行新的 TKG 修補程式版本後,會將對較舊修補程式版本的支援保留兩個月。這為客戶提供了 2 個月的時間升級到新的 TKG 修補程式版本。
對於 TKG v2.3,Tanzu Standard 存放庫中的套件版本與 Kubernetes 次要版本 v1.26、v1.25 和 v1.24 的 TKrs 相容,如下所示:
套件 | 套件版本 | Kubernetes v1.26 TKr | Kubernetes v1.25 TKr | Kubernetes v1.24 TKr |
---|---|---|---|---|
Cert Manager cert-manager.tanzu.vmware.com |
1.11.1+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ |
Contour contour.tanzu.vmware.com |
1.24.4+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ |
External DNS external-dns.tanzu.vmware.com |
0.13.4+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
0.12.2+vmware.5-tkg.2-20230629 | ✔ | ✔ | ✔ | |
0.11.1+vmware.5-tkg.2-20230629 | ✖ | ✖ | ✔ | |
Fluent Bit fluent-bit.tanzu.vmware.com |
2.1.2+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ |
1.9.5+vmware.1-tkg.3-zshippable | ✔ | ✔ | ✔ | |
1.8.15+vmware.1-tkg.1 | ✖ | ✖ | ✔ | |
FluxCD Help Controller fluxcd-helm-controller.tanzu.vmware.com |
0.32.0+vmware.1-tkg.2-20230629 | ✔ | ✔ | ✔ |
0.21.0+vmware.1-tkg.1-zshippable | ✖ | ✖ | ✔ | |
FluxCD Source Controller fluxcd-source-controller.tanzu.vmware.com |
0.33.0+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
Grafana grafana.tanzu.vmware.com |
9.5.1+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
7.5.17+vmware.1-tkg.3-zshippable | ✖ | ✖ | ✔ | |
Harbor harbor.tanzu.vmware.com |
2.8.2+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
Multus CNI multus-cni.tanzu.vmware.com |
3.8.0+vmware.3-tkg.1 | ✔ | ✔ | ✔ |
4.0.1+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ | |
Prometheus prometheus.tanzu.vmware.com |
2.43.0+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
2.37.0+vmware.3-tkg.1 | ✔ | ✔ | ✔ | |
2.36.2+vmware.1-tkg.1 | ✖ | ✖ | ✔ | |
Whereabouts whereabouts.tanzu.vmware.com |
0.6.1+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
0.5.4+vmware.2-tkg.1 | ✔ | ✔ | ✔ |
Tanzu Kubernetes Grid v2.3 支援下列基礎結構平台和作業系統 (OS),以及叢集的建立和管理、網路、儲存區、驗證、備份和移轉以及可觀察性元件。
有關與 TKG v2.3 相容的其他套件版本,請參閱《Tanzu 套件說明文件》中的 Tanzu Standard 存放庫 v2023.10.16 版本資訊。
有關 TKG v2.3 中包含的元件版本的完整清單,請參閱元件版本。
vSphere | AWS | Azure | |
基礎結構平台 |
|
原生 AWS | 原生 Azure |
Tanzu CLI | Tanzu CLI Core v1.0.0** | ||
TKG API 和套件基礎結構 | Tanzu Framework v0.30.2 | ||
叢集的建立和管理 | 核心叢集 API (v1.4.5)、叢集 API 提供者vSphere (v1.7.1) | 核心叢集 API (v1.4.5)、叢集 API 提供者 AWS (v2.1.3) | 核心叢集 API (v1.4.5)、叢集 API 提供者 Azure (v1.9.2) |
隨 TKG 發行的 Kubernetes 節點作業系統 | Photon OS 3、Ubuntu 20.04 | Amazon Linux 2、Ubuntu 20.04 | Ubuntu 18.04、Ubuntu 20.04 |
建置您自己的映像 | Photon OS 3、Red Hat Enterprise Linux 7*** 和 8、Ubuntu 18.04、Ubuntu 20.04、Windows 2019 | Amazon Linux 2、Ubuntu 18.04、Ubuntu 20.04 | Ubuntu 18.04、Ubuntu 20.04 |
容器執行階段 | Containerd (v1.6.18) | ||
容器網路 | Antrea (v1.11.2)、Calico (v3.25.1)、Multus CNI (v4.0.1、v3.8.0) | ||
容器登錄 | Harbor (v2.8.4) | ||
入口 | NSX Advanced Load Balancer Essentials 和 Avi 控制器 **** (v21.1.4-v21.1.6、v22.1.2-v22.1.3)、NSX v4.1.0 (vSphere 8.0.u1)、v3.2.2 (vSphere 7)、Contour (v1.25.2) | Contour (v1.25.2) | Contour (v1.25.2) |
儲存區 | vSphere容器儲存區介面 (v3.0.1*****) 和vSphere雲端原生儲存 | Amazon EBS CSI 驅動程式 (v1.18.0) 和樹狀結構內雲端提供者 | Azure 磁碟 CSI 驅動程式 (v1.27.1)、Azure 檔案 CSI 驅動程式 (v1.27.0) 以及樹狀結構內雲端提供者 |
驗證 | 透過 Pinniped 的 OIDC 和 LDAP (v0.24.0) | ||
可觀察性 | Fluent Bit (v2.1.6)、Prometheus (v2.45.0, v2.37.0)******、Grafana (v10.0.1) | ||
服務探索 | 外部 DNS (v0.13.4) | ||
備份和移轉 | Velero (v1.10.3) |
* 如需與此版本相容的 VMware Cloud on AWS SDDC 版本清單,請參閱 VMware 產品互通性對照表。
** 有關與此版本相容的 Tanzu CLI 版本的完整清單,請參見產品互通性對照表。
*** Tanzu Kubernetes Grid v1.6 是支援建置 Red Hat Enterprise Linux 7 映像的最新版本。
**** 在 vSphere 8 上,若要將 NSX Advanced Load Balancer 與 TKG 獨立管理叢集及其工作負載叢集結合使用,您需要 NSX ALB v22.1.2 或更新版本以及 TKG v2.1.1 或更新版本。
***** vsphere_csi_driver 版本。如需此版本中包含的 vSphere 容器儲存區介面元件的完整清單,請參見元件版本。
****** 如果將叢集升級到 Kubernetes v1.25,則必須至少將 Prometheus 升級到版本 2.37.0+vmware.3-tkg.1
。Prometheus 軟體套件的早期版本 (例如版本 2.37.0+vmware.1-tkg.1
) 與 Kubernetes 1.25 不相容。
有關 Tanzu Kubernetes Grid v2.3 隨附的 Kubernetes 版本的完整清單,請參見上述支援的 Kubernetes 版本。
TKG v2.3.x 版本包括以下軟體元件版本:
附註以前的 TKG 版本包括現在透過 Tanzu Standard 存放庫散發的元件。有關這些元件的清單,請參見下面的 Tanzu Standard 存放庫。
元件 | TKG v2.3.1 | TKG v2.3.0 |
---|---|---|
aad-pod-identity | v1.8.15+vmware.2 | v1.8.15+vmware.2* |
addons-manager | v2.2+vmware.1 | v2.2+vmware.1* |
ako-operator | v1.9.0_vmware.1 | v1.9.0_vmware.1* |
alertmanager | v0.25.0_vmware.4* | v0.25.0_vmware.3* |
antrea | v1.11.2_vmware.1* | v1.11.1_vmware.4* |
antrea-interworking | v0.11.1* | v0.11.0* |
aws-ebs-csi-driver | v1.18.0+vmware.2 | v1.18.0+vmware.2* |
azuredisk-csi-driver | v1.27.1+vmware.3* | v1.27.1+vmware.2* |
azurefile-csi-driver | v1.27.0+vmware.3* | v1.27.0+vmware.2* |
calico | v3.25.1+vmware.2 | v3.25.1+vmware.2* |
capabilities-package | v0.30.2-capabilities* | v0.30.2-capabilities* |
carvel-secretgen-controller | v0.14.2+vmware.2 | v0.14.2+vmware.2* |
cloud-provider-azure | v1.1.26+vmware.1、 v1.23.23+vmware.1、 v1.24.10+vmware.1 |
v1.1.26+vmware.1、 v1.23.23+vmware.1、 v1.24.10+vmware.1 |
cloud_provider_vsphere | v1.24.6+vmware.1、 |
v1.24.6+vmware.1*、 |
cluster-api-provider-azure | v1.9.2+vmware.1 | v1.9.2+vmware.1* |
cluster_api | v1.4.5+vmware.1* | v1.4.2+vmware.3* |
cluster_api_aws | v2.1.3+vmware.0 | v2.1.3+vmware.0* |
cluster_api_vsphere | v1.7.1+vmware.0* | v1.7.0+vmware.0* |
cni_plugins | v1.1.1+vmware.28* | v1.1.1+vmware.23* |
configmap-reload | v0.8.0+vmware.3* | v0.8.0+vmware.2* |
containerd | v1.6.18+vmware.1 | v1.6.18+vmware.1 |
coredns | v1.9.3+vmware.16* | v1.9.3+vmware.11* |
crash-diagnostics | v0.3.7+vmware.7 | v0.3.7+vmware.7* |
cri_tools | v1.25.0+vmware.10* | v1.25.0+vmware.6* |
csi_attacher | v4.2.0+vmware.4*、 v4.0.0+vmware.1, v3.5.0+vmware.1、 v3.4.0+vmware.1、 v3.3.0+vmware.1 |
v4.2.0+vmware.2*、 v4.0.0+vmware.1*、 v3.5.0+vmware.1、 v3.4.0+vmware.1、 v3.3.0+vmware.1 |
csi_livenessprobe | v2.9.0+vmware.4*、 v2.8.0+vmware.1、 v2.7.0+vmware.1、 v2.6.0+vmware.1、 v2.5.0+vmware.1、 v2.4.0+vmware.1 |
v2.9.0+vmware.2*、 v2.8.0+vmware.1*、 v2.7.0+vmware.1、 v2.6.0+vmware.1、 v2.5.0+vmware.1、 v2.4.0+vmware.1 |
csi_node_driver_registrar | v2.7.0+vmware.4*、 v2.7.0+vmware.2、 v2.6.3+vmware.1、 v2.6.2+vmware.1、 v2.5.1+vmware.1、 v2.5.0+vmware.1、 v2.3.0+vmware.1 |
v2.7.0+vmware.1*、 v2.7.0+vmware.2*、 v2.6.3+vmware.1*、 v2.6.2+vmware.1*、 v2.5.1+vmware.1、 v2.5.0+vmware.1、 v2.3.0+vmware.1 |
csi_provisioner | v3.4.1+vmware.3*、 v3.4.0+vmware.4*、 v3.3.0+vmware.1、 v3.2.1+vmware.1、 v3.1.0+vmware.2 |
v3.4.1+vmware.2*、 v3.4.0+vmware.2*、 v3.3.0+vmware.1*、 v3.2.1+vmware.1、 v3.1.0+vmware.2 |
dex | 不適用 | 已移除 |
envoy | v1.25.9+vmware.1* | v1.25.6+vmware.1* |
external-snapshotter | v6.2.1+vmware.4*、 v6.1.0+vmware.1、 v6.0.1+vmware.1、 v5.0.1+vmware.1 |
v6.2.1+vmware.2*、 v6.1.0+vmware.1*、 v6.0.1+vmware.1、 v5.0.1+vmware.1 |
etcd | v3.5.6+vmware.20* | v3.5.6+vmware.14* |
guest-cluster-auth-service | v1.3.0_tkg.2 | v1.3.0_tkg.2 |
image-builder | v0.1.14+vmware.1 | v0.1.14+vmware.1* |
image-builder-resource-bundle | v1.26.8+vmware.1-tkg.2* | v1.26.5+vmware.2-tkg.1* |
imgpkg | v0.36.0+vmware.2 | v0.36.0+vmware.2* |
jetstack_cert-manager (cert-manager) | v1.11.1+vmware.1 | v1.11.1+vmware.1* |
k8s-sidecar | v1.22.4+vmware.2* | v1.22.0+vmware.2*、 v1.15.6+vmware.5、 v1.12.1+vmware.6 |
k14s_kapp (kapp) | v0.55.0+vmware.2 | v0.55.0+vmware.2* |
k14s_ytt (ytt) | v0.45.0+vmware.2 | v0.45.0+vmware.2* |
kapp-controller | v0.45.2+vmware.1 | v0.45.2+vmware.1* |
kbld | v0.37.0+vmware.2 | v0.37.0+vmware.2* |
kube-state-metrics | v2.8.2+vmware.1 | v2.8.2+vmware.1* |
kube-vip | v0.5.12+vmware.1 | v0.5.12+vmware.1 |
kube-vip-cloud-provider | v0.0.5+vmware.1、 v0.0.4+vmware.4 |
v0.0.5+vmware.1*、 v0.0.4+vmware.4 |
kubernetes | v1.26.8+vmware.1*、 v1.25.13+vmware.1*、 v1.24.17+vmware.1* |
v1.26.5+vmware.2*、 v1.25.10+vmware.2*、 v1.24.14+vmware.2 |
kubernetes-csi_external-resizer | v1.7.0+vmware.4*、 v1.6.0+vmware.1、 v1.5.0+vmware.1、 v1.4.0+vmware.1 |
v1.7.0+vmware.2*、 v1.6.0+vmware.1*、 v1.5.0+vmware.1*、 v1.4.0+vmware.1 |
kubernetes-sigs_kind | v1.26.8+vmware.1-tkg.2_v0.17.0*、 v1.25.13+vmware.2-tkg.1_v0.17.0*、 v1.24.17+vmware.2-tkg.1_v0.17.0* |
v1.26.5+vmware.2-tkg.1_v0.17.0*、 v1.25.10+vmware.2-tkg.1_v0.17.0*、 v1.24.14+vmware.2-tkg.1_v0.17.0* |
kubernetes_autoscaler | v1.26.2+vmware.1 | v1.26.2+vmware.1* |
load-balancer-and-ingress-service (AKO) | v1.9.3+vmware.2-tkg.1 | v1.9.3+vmware.2-tkg.1* |
metrics-server | v0.6.2+vmware.1 | v0.6.2+vmware.1 |
pinniped | v0.24.0+vmware.1-tkg.1 | v0.24.0+vmware.1-tkg.1* |
pinniped-post-deploy | v0.24.0+vmware.1 | v0.24.0+vmware.1* |
prometheus_node_exporter | v1.5.0+vmware.3* | v1.5.0+vmware.2* |
pushgateway | v1.5.1+vmware.3* | v1.5.1+vmware.2* |
sonobuoy | v0.56.16+vmware.2 | v0.56.16+vmware.2* |
tanzu-framework | v0.30.2* | v0.30.2* |
tanzu-framework-addons | v0.30.2* | v0.30.2* |
tanzu-framework-management-packages | v0.30.2* | v0.30.2* |
tkg-bom | v2.3.1* | v2.3.0* |
tkg-core-packages | v1.26.8+vmware.1-tkg.2* | v1.26.8+vmware.2-tkg.1* |
tkg-standard-packages | v2023.10.16* | v2023.7.13* |
tkg-storageclass-package | v0.30.2* | v0.30.2* |
tkg_telemetry | v2.3.1+vmware.3* | v2.3.0+vmware.2* |
velero | v1.10.3+vmware.1 | v1.10.3+vmware.1* |
velero-mgmt-cluster-plugin* | v0.2.0+vmware.1 | v0.2.0+vmware.1* |
velero-plugin-for-aws | v1.6.2+vmware.1 | v1.6.2+vmware.1* |
velero-plugin-for-csi | v0.4.3+vmware.1 | v0.4.3+vmware.1* |
velero-plugin-for-microsoft-azure | v1.6.2+vmware.1 | v1.6.2+vmware.1* |
velero-plugin-for-vsphere | v1.5.1+vmware.1 | v1.5.1+vmware.1* |
vendir | v0.33.1+vmware.2 | v0.33.1+vmware.2* |
vsphere_csi_driver | v3.0.1+vmware.4* | v3.0.1+vmware.2* |
* 表示自先前版本以來新增的元件或版本更新。TKG v2.3.0 之前為 v2.3.1 而 TKGv2.2.0 之前為 v2.3.0。
如需 TKG v2.3 隨附的軟體元件版本的完整清單,請使用 imgpkg
提取存放庫服務包,然後列出其內容。例如,要列出 TKG v2.3.1 Tanzu Standard 存放庫隨附的元件版本,請執行以下命令:
imgpkg pull -b projects.registry.vmware.com/tkg/packages/standard/repo:v2023.10.16 -o standard-2023.10.16
如以下所列的本機 BOM 檔案也會列出套件版本,但可能不是最新的:
~/.config/tanzu/tkg/bom/tkg-bom-v2.3.1.yaml
~/.config/tanzu/tkg/bom/tkr-bom-v1.26.8+vmware.2-tkg.1.yaml
在 TKG 升級路徑中,v2.3 緊接在 v2.2.0 之後。
您只能從 v2.2.x 升級到 Tanzu Kubernetes Grid v2.3.x。如果要從早於 v2.2.x 的版本升級到 Tanzu Kubernetes Grid v2.3.x,必須先升級到 v2.2.x。
在工作負載叢集上升級 Kubernetes 版本時,無法跳過次要版本。例如,您無法將 Tanzu Kubernetes 叢集直接從 v1.24.x 升級到 v1.26.x。必須先將 v1.24.x 叢集升級到 v1.25.x,再將叢集升級到 v1.26.x。
Tanzu Kubernetes Grid v2.3 發行日期為:
相較於 v2.2.0 (先前的最新版本),Tanzu Kubernetes Grid v2.3 中引入了下列的新行為。
使用 OIDC 身分識別提供者 (IDP) 透過 Pinniped 進行身分識別和存取管理時,必須將 OIDC IDP 設為頒發重新整理 Token。
OIDC_IDENTITY_PROVIDER_SCOPES
和 OIDC_IDENTITY_PROVIDER_ADDITIONAL_AUTHORIZE_PARAMS
。LDAPIdentityProvider
自訂資源中的組態設定相對應。在將組態為使用 LDAP 身分識別提供者的管理叢集升級到 Tanzu Kubernetes Grid v2.3 之前,請按照(僅限 LDAP)更新 LDAP 設定 中所述更新 LDAP 設定。在將管理叢集升級到 v2.3 期間,所有現有的 LDAP 設定將自動移轉到新的 Pinniped 格式。tanzu mc permissions aws set
。有關詳細資訊,請參閱準備升級叢集中的 AWS 索引標籤。ConfigMap
物件。請參閱多個 Kubernetes 版本 (Multiple Kubernetes Versions) 頁面上的「部署 Kubernetes 叢集」。本節提供了將在未來版本 (TKG v2.3 版本之後的版本) 中生效的行為變更的預先通知。
tanzu login
命令將在 TKG 的未來版本中移除。命令將取代為 tanzu context
命令。有關詳細資訊,請參閱《VMware Tanzu CLI 說明文件》中的 tanzu 內容。
部署和管理 TKG 2.3 獨立管理叢集中含有獨立管理叢集的特定主題,這些主題與「將 TKG 與 vSphere with Tanzu 主管搭配使用」無關。
如需詳細資訊,請參閱《VMware Tanzu Kubernetes Grid 說明文件》頁面上的尋找適合您部署的 TKG 文件。
Tanzu Kubernetes Grid v2.3.1 解決了未記錄的客戶問題和錯誤。
以下是在 Tanzu Kubernetes Grid 舊版發行中記錄成「已知問題」,但已在 Tanzu Kubernetes Grid v2.3 中解決的問題。
TKG v2.3 在 vSphere 8 上不支援 IPv6 網路,但是在 vSphere 7 上它支援使用 Kube-Vip 來建立單堆疊 IPv6 網路 (如 IPv6 網路中所述)。
叢集 autoscaler 不會將預期的金鑰新增到 MachineDeployment
如果建立啟用了叢集 autoscaler 的叢集,預期金鑰 cluster.x-k8s.io/cluster-api-autoscaler-node-group-max-size
和 cluster.x-k8s.io/cluster-api-autoscaler-node-group-min-size
都不會新增到 metadata.annotations
中的 MachineDeployment
。
ClusterClass 組態中缺少 Worker 節點推出變數
所有目標平台的 ClusterClass 組態中均缺少用於為工作負載叢集 WORKER_ROLLOUT_STRATEGY
設定推出策略的 MachineDeployments
變數。現在,您可以在基於類別的叢集以及基於計劃的舊版叢集上設定 WORKER_ROLLOUT_STRATEGY
變數。如需詳細資訊,請參閱〈組態檔變數參考〉中的啟用了 GPU 的叢集。
AWS 上的工作負載叢集節點集區必須與獨立管理叢集位於相同的可用區域中。
建立節點集區時,如果所設定的 az
不同於管理叢集的所在位置,則新的節點集區可能會一直停滯在 ScalingUp
狀態 (如 tanzu cluster node-pool list
所列),且永遠不會達到 Ready
狀態。
在您依照備份和還原管理叢集和工作負載叢集的基礎結構 (技術預覽) 中所述,來重建獨立管理叢集後,使用者無法透過 Pinniped 驗證來登入工作負載叢集。
當執行 ID 超過 1000000 時,Harbor CVE 匯出可能會失敗
Harbor v2.7.1 (TKG v2.2 封裝的版本) 存在已知問題,即在執行主要金鑰時自動增量 ID 到 1000000+ 時,CVE 報告匯出錯誤「找不到 404 (404 page not found)」。
tanzu package available get
的 --default-values-file-output
選項為 Harbor 套件輸出不完整的組態範本檔
執行 tanzu package available get harbor.tanzu.vmware.com/PACKAGE-VERSION --default-values-file-output FILE-PATH
會為 Harbor 套件建立不完整的組態範本檔。
由於叢集 API 中的標籤傳播問題,以類別為基礎的工作負載叢集的叢集組態檔中的 AUTOSCALER_MIN_SIZE_*
和 AUTOSCALER_MAX_SIZE_*
設定並未設定在叢集的 MachineDeployment
物件中,必須手動新增。
以類別為基礎的叢集名稱具有 25 個字元的限制,並以 NSX ALB 作為負載平衡器服務或輸入控制器
將 NSX Advanced Load Balancer (ALB) 用作以類別為基礎的叢集的負載平衡器服務或具有獨立管理叢集的輸入控制器時,其應用程式名稱包括叢集名稱和 AKO 套件的內部名稱 load-balancer-and-ingress-service
。當組合名稱超過 Avi 控制器應用程式的 64 個字元限制時,tanzu cluster create
命令可能會失敗,並顯示錯誤:「找不到 avi-system
命名空間」。
因應措施:使用 NSX ALB 作為負載平衡器或輸入控制器時,請將以類別為基礎的叢集名稱長度限制為 25 個或以下的字元。
以下是 Tanzu Kubernetes Grid v2.3.x 中的已知問題。在後續 v2.3.x 修補程式發行版本中解決的存在於 v2.3.0 中的任何已知問題,都列在修正這些問題的修補程式發行版本的已解決的問題之下。
您可以在疑難排解管理叢集問題和疑難排解工作負載叢集問題或 VMware 知識庫文章中找到常見問題的其他解決方案。
執行 tanzu package repository add
將 tanzu-standard
存放庫新增至 vSphere 上的單節點叢集中所述類型的單節點叢集時可能會失敗。
發生這種情況的原因是,單節點叢集會使用 cert-manager
作為核心附加元件進行開機,這與 tanzu-standard
存放庫中不同的 cert-manager
套件相衝突。
因應措施:在新增 tanzu-standard
存放庫之前,請依照安裝 cert-manager 中所述修補 cert-manager
套件註解。
在 AWS 和 Azure 上,使用物件規格建立工作負載叢集失敗,並顯示區/區域錯誤
預設下,在 AWS 或 Azure 上,執行 tanzu cluster create
並將基於類的叢集物件規格傳遞到 --file
會導致 Tanzu CLI 執行僅與 vSphere 可用區相關的區域和區驗證。
解決方法在 AWS 或 Azure 上建立以類別為基礎的叢集時,請根據使用建立以類別為基礎的叢集中所述的單步驟或兩步驟程序執行以下任一操作:
單步驟:按照所述的單步驟程序執行操作,方法是將 features.cluster.auto-apply-generated-clusterclass-based-configuration
設為 true
並且不將 --dry-run
傳遞到 tanzu cluster create
命令。
雙步驟:按照物件規格執行 tanzu cluster create
作為第二步驟之前,在本機環境中將 SKIP_MULTI_AZ_VERIFY
設為 true
:
export SKIP_MULTI_AZ_VERIFY=true
對於管理叢集和工作負載叢集,如果部署具有單個控制平面節點、單個 worker 節點或小型或中型叢集的叢集,可能會遇到資源排程爭用問題。
因應措施:使用單節點叢集或總共具有三個或更多節點的叢集。
無法根據具有 Antrea CNI 的非目前 TKr 版本建立新的工作負載叢集
您無法建立使用 Antrea CNI 並執行先前版本 TKG 隨附的 Kubernetes 版本 (如 Kubernetes v1.23.10) 的新工作負載叢集,這是 TKG v1.6.1 中預設的 Kubernetes 版本,如 Tanzu Kubernetes Grid v2.2 中支援的 Kubernetes 版本所列。
因應措施:建立執行 Kubernetes 1.26.8、1.25.13 或 1.24.17 的工作負載叢集。Kubernetes 專案建議您在目前任何次要版本的最新修補程式版本上執行元件。
如果您在管理叢集上執行 tanzu cluster scale
,並傳遞一個偶數給 --controlplane-machine-count
選項,則 TKG 不會調整控制平面節點,且 CLI 不會輸出錯誤。為了維護仲裁,控制平面節點計數應一律是奇數。
因應措施:不要將控制平面節點計數調整為偶數。
附註若為 v4.0 以上,VMware NSX-T Data Center 已重新命名為「VMware NSX」。
在 TKG v2.3 中,管理叢集組態變數 AVI_DISABLE_INGRESS_CLASS
、AVI_DISABLE_STATIC_ROUTE_SYNC
、AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER
不起作用。
如要將管理叢集的任何基礎屬性設為非預設值 true
,需要在建立管理叢集後手動編輯管理叢集的兩個 AKODeploymentConfig
組態物件,如下所述。
因應措施:編輯管理叢集中的 install-ako-for-all
和 install-ako-for-management-cluster
物件:
將 kubectl
內容設定為管理叢集:
kubectl config use-context MGMT-CLUSTER-CONTEXT
編輯 install-ako-for-all
和 install-ako-for-management-cluster
組態:
kubectl edit adc install-ako-for-all
kubectl edit adc install-ako-for-management-cluster
在組態中,視需要設定下列內容:
extraConfigs.ingress.disableIngressClass
- 適用於 config var AVI_DISABLE_INGRESS_CLASS
extraConfigs.disableStaticRouteSync
- 適用於 config var AVI_DISABLE_STATIC_ROUTE_SYNC
extraConfigs.ingress.defaultIngressController
- 適用於 config var AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER
儲存並結束。
這些設定將套用至管理叢集後續建立的工作負載叢集。
管理叢集不支援 NSX ALB NodePortLocal
輸入模式
在 TKG v2.3 中,當使用輸入模式 NodePortLocal
來將流量傳輸至管理叢集時,您無法將 NSX Advanced Load Balancer (ALB) 當成服務類型來執行。
此問題不會影響支援使用 NodePortLocal
輸入來傳輸到工作負載叢集,如 NodePortLocal 模式下的 L7 輸入中所述。
因應措施:將 AVI_INGRESS_SERVICE_TYPE
設定為 NodePort
或 ClusterIP
,來設定管理叢集。預設值為 NodePort
。
如果使用較舊的 NSX-T 版本和 Photon 3,或使用具有 Linux 核心 5.8 虛擬機器的 Ubuntu,則管理叢集會建立失敗或是效能下降
如果部署具有以下基礎結構和組態的管理叢集,則可能失敗或導致網繭之間的流量受限:
此組合暴露了舊版 NSX-T 和 Antrea CNI 之間的總和檢查問題。
TMC:如果管理叢集已向 Tanzu Mission Control (TMC) 登錄,則此問題沒有因應措施。否則,請參閱下面的因應措施。
因應措施:
ANTREA_DISABLE_UDP_TUNNEL_OFFLOAD
設定為 "true"
。此設定會停用 Antrea 的 UDP 總和檢查卸載,從而避免某些底層網路和實體 NIC 網路驅動程式的已知問題。無法啟用工作負載叢集以在多個資料存放區分配儲存,如部署使用資料存放區的叢集中所述。如果將資料存放區叢集中的多個資料存放區標記為工作負載叢集儲存原則的基礎,則工作負載叢集僅使用其中一個資料存放區。
因應措施:無
使用 CLI 來部署管理叢集時,不能在密碼中使用非英數字元 # ` ^ | / ? % ^ { [ ] } \ " < >
。此外,當使用 UI 來部署管理叢集時,不能在 HTTP/HTTPS Proxy 密碼中使用任何非英數字元。
因應措施:使用 CLI 來部署管理叢集時,您可以在密碼中使用 # ` ^ | / ? % ^ { [ ] } \ " < >
以外的非英數字元。
Tanzu CLI 在具有 ARM 處理器的 macOS 機器上無法運作
Tanzu CLI v0.11.6 在具有 ARM (Apple M1) 晶片的 macOS 機器上無法運作,如 Finder > 關於這台 Mac (About This Mac) > 概觀 (Overview) 下所示。
因應措施:使用具有 Linux 或 Windows 作業系統的啟動機器,或使用具有 Intel 處理器的 macOS 機器。
Tanzu CLI 列出 tanzu management-cluster osimage
management-cluster
命令群組列出了 tanzu management-cluster osimage
。此功能目前正在開發中,並保留供未來使用。
因應措施:請勿使用 tanzu management-cluster osimage
。
在等待叢集控制平面變為可用時,將管理叢集部署到 vSphere 7 失敗
如果在將管理叢集部署到 vSphere 7 時指定虛擬機器網路,部署將失敗並顯示以下錯誤:unable to set up management cluster: unable to wait for cluster control plane available: control plane is not available yet
。
因應措施:網路「虛擬機器網路」具有 VsVip
和 ServiceEngine
的多個已設定子網路靜態 IP。在虛擬機器網路上將 exclude_discovered_subnets
設為 True,以忽略發現的子網路並允許將虛擬服務放置在服務引擎上。
如果刪除包含虛擬機器的可用區域,則後續無法刪除這些虛擬機器。
因應措施:從可用區域中移除所有虛擬機器,然後再將其刪除。
在 vSphere 上建立工作負載叢集時,建立失敗並顯示以下錯誤:
vSphere config validation failed: failed to get VC client: failed to create vc client: Post "https://address/sdk": EOF ". VCenter vpxd.log report error: Out of HTTP sessions: Limited to 2000
發生這種情況的原因是 vCenter Server 工作階段耗盡。
因應措施:請參閱 VMware 知識庫文章 50114010。
使用 small
節點來建立的節點集區可能會停滯在 Provisioning
狀態。
建立節點集區時,如果將節點 SIZE
設定為 small
,則集區可能停滯在 Provisioning
狀態,且永遠不會進入 Running
狀態。
因應措施:將節點集區設定成至少具有 medium
大小的節點。
Vmware 不支援在代理或氣隙環境中具有 Windows Worker 節點的 TKG 工作負載叢集。
因應措施:請聯絡您的 VMware 代表。某些 TKG 使用者建立了 Windows 自訂映像,並在離線環境中使用 Windows worker 執行工作負載叢集,例如,如此非官方存儲庫中所述。
在您執行 Kubernetes Image Builder 以建立 Linux 自訂機器映像時,goss
測試 python-netifaces
、python-requests
和 ebtables
失敗。命令輸出會報告失敗情況。這些錯誤可以忽略;它們不會妨礙映像建置成功。
在 Azure vSphere 解決方案 (AVS) 上,刪除 vSphere CSI 持續性磁碟區 (PV) 可能會失敗。刪除 PV 時,需要 cns.searchable 權限。未使用此權限來建立 AVS 的預設管理員帳戶 ([email protected])。如需詳細資訊,請參閱 vSphere 角色和權限。
因應措施:若要刪除 AVS 上的 vSphere CSI PV,請連絡 Azure 支援。
使用 TKG v2.3,Tanzu Standard 套件存放庫與 TKG 分開進行版本控制和散發,其版本控制基於日期戳記。
對於 TKG v2.3.0 和 v2.3.1,TKG 修補程式版本及其最新的相容 Tanzu Standard 存放庫版本大約在同一日期發佈。
未來的 Tanzu Standard 存放庫版本可能會比 TKG 版本更頻繁發佈,但所有修補程式版本都將保持 TKG 的次要版本與 Tanzu Standard 之間的現有相容性。
對於每個 TKG v2.3 修補程式版本,其最新的相容 Tanzu Standard 存放庫版本為:
VMware 為 VMware Tanzu Standard 存放庫中提供的可選套件提供以下支援:
vmware_cert-manager
套件包含來自上游 acmesolver
的 jetstack_cert-manager
元件。TKG 版本 | jetstack_cert-manager 版本 | vmware cert-manager 套件版本 | Kubernetes 版本相容性 |
2.3 | v1.11.1 | v1.11.1+vmware.1 | 1.21-1.27 |
cert manager v1.11.1 包含以下元件映像版本:
TKG v2.3 中已棄用以下 cert manager 版本:
envoy:
workload:
type: Deployment
replicas: 3
您可以使用如下資料值為 Contour 和 Envoy 工作負載中的每個容器指定資源請求或限制:
contour:
resources:
contour:
requests:
cpu: 250m
memory: 128Mi
limits:
cpu: 1
memory: 512Mi
envoy:
resources:
envoy:
# include requests and limits as desired
shutdown-manager:
# include requests and limits as desired
data-values
檔案組態值。在資料值中指定不受支援的值會導致錯誤。Kubernetes v1.24-v1.26 支援 Contour v1.24.4。請參閱 Contour 相容性對照表。
data-values
檔案不再接受 null
值。對於設為 null
的值之任何組態欄位,應完全忽略該值。external-csi-snapshot-webhook
v6.1.0。TKG 版本 | external-csi-snapshot-webhook 版本 |
預期的 Kubernetes 版本相容性 | 已在 Kubernetes 版本上測試 |
2.3.0 | 6.1.0 | 1.18 - 最新 | 1.24 |
external-csi-snapshot-webhook 包含以下元件映像版本:
createNamespace
組態欄位。設為 true
可建立在其中安裝 external-dns
元件的命名空間。如果設為 false,套件將安裝到現有命名空間中。請參閱以下 Fluxcd 控制器套件版本資訊:
Grafana v9.5.1 包含以下元件映像版本:
Harbor v2.8.2 包含以下元件映像版本:
依如下方式變更預設值:
namespace: kube-system
#! DaemonSet related configuration
daemonset:
resources:
limits:
cpu: 100m
memory: 50Mi
requests:
cpu: 100m
memory: 50Mi
configmap:
cniVersion: 0.3.1
multusConfigFile: auto
Prometheus v2.43.0 包含以下元件映像版本:
restic daemonset
已重新命名為 node-agent
ResticRepository
CR 已重新命名為 BackupRepository
velero restic repo
命令已重新命名為 velero repo
velero-restic-credentials
密碼已重新命名為 velero-repo-credentials
default-volumes-to-restic
參數已重新命名為 default-volumes-to-fs-backup
restic-timeout
參數已重新命名為 fs-backup-timeout
default-restic-prune-frequency
參數已重新命名為 default-repo-maintain-frequency
uploader-type
組態參數支援這兩者,對檔案系統備份進行重新引導。
BackupItemAction
、RestoreItemAction
和 VolumeSnapshotterAction
外掛程式移至版本 v1,以便將來對可能不支援向後相容的外掛程式進行變更,例如複雜的資料移轉任務 (例如,資料移轉任務)。請參閱外掛程式版本控制。-paused
旗標傳遞到 velero schedule create
以建立暫停的排程。velero schedule pause
和 velero schedule unpause
暫停和取消暫停現有排程。TKG 版本 | Velero 版本 | 預期的 Kubernetes 版本相容性 | 已在 Kubernetes 版本上測試 |
2.3(Halifax) | 1.10 | 1.18-latest | 1.22.5、1.23.8、1.24.6 和 1.25.1 |
Velero v1.10.3 包含以下元件映像版本:
如要修復 CVE,將按如下方式更新 Velero 執行時期和相依性版本:
由於檔案系統備份變更,先前的升級程序將不起作用。有關新的升級步驟,請參閱升級至 Velero 1.10。
ipRanges
以配置雙堆疊 IP 指派;請參閱 Whereabouts 存放庫 README 檔中的 IPv6 組態範例。