VMware Tanzu Kubernetes Grid v2.3 版本說明

除非另有說明,否則這些版本說明適用於 Tanzu Kubernetes Grid (TKG) 的所有 v2.3.x 修補程式版本。

TKG v2.3 以可下載的 Tanzu CLI 套件形式發行,用來部署版本化 TKG 獨立管理叢集。TKG v2.3 支援使用可在多個基礎架構 (包括 vSphere、AWS 和 Azure) 上執行的獨立管理叢集建立和管理以類別為基礎的工作負載叢集。

Tanzu Kubernetes Grid v2.x 和 vSphere 8 中的 vSphere with Tanzu 主管

重要

vSphere 8.0.1c 和更新版本中的 vSphere with Tanzu 主管執行 TKG v2.2。舊版的 vSphere 8 執行 TKG v2.0,該版本並非獨立於主管發佈。從 TKG 2.1 開始,可以使用執行 TKG 2.x 的獨立管理叢集。由於主管中嵌入了較早的 TKG 版本,某些獨立 TKG 2.3 管理叢集中可用的功能,在使用 vSphere with Tanzu 建立工作負載叢集時不可用。更新的 TKG 版本將嵌入到未來 vSphere 更新版本的主管中。因此,特定時間最新 vSphere with Tanzu 版本中嵌入的 TKG 版本可能不如最新獨立 TKG 版本新。但是,完全支援與所有 TKG v2.x 版本相容的 Tanzu CLI 版本與 vSphere 8 所有版本中的主管一起使用。例如,Tanzu CLI v1.0.0 與主管提供的 TKG 2.2 外掛程式完全向後相容。

位於 vSphere 7 中的 Tanzu CLI 和 Sphere with Tanzu

與 vSphere 8 中的 TKG 2.x 和 vSphere with Tanzu 主管相容的 Tanzu CLI 版本與 vSphere 7 中的主管叢集不相容。如要在 vSphere 7 上對 vSphere with Tanzu 主管叢集使用 Tanzu CLI,請使用 TKG v1.6 中的 Tanzu CLI 版本。如要使用與具有主管的 TKG 2.x 相容的 Tanzu CLI 版本,請升級到 vSphere 8。如果 vSphere with Tanzu 主管叢集不存在,您可以將獨立 TKG 2.x 管理叢集部署到 vSphere 7。有關 Tanzu CLI 與 VMware 產品之間相容性的資訊,請參閱 Tanzu CLI 文件

新增功能

Tanzu Kubernetes Grid v2.3.x 包含以下的新功能:

Tanzu Kubernetes Grid v2.3.1

Tanzu Kubernetes Grid v2.3.1 的新增功能:

Tanzu Kubernetes Grid v2.3.0

anzu Kubernetes Grid v2.3.0 的新增功能:

  • 獨立 Tanzu CLI 外掛程式的新散發機制,包括適用於 Tanzu Kubernetes Grid 的獨立 Tanzu CLI 外掛程式。此外,Tanzu Core CLI 現在與 Tanzu Kubernetes Grid 分開散發。有關如何安裝 Tanzu CLI 以與 Tanzu Kubernetes Grid 配合使用的說明,請參閱安裝 Tanzu CLI 和 Kubernetes CLI 以與獨立管理叢集配合使用。
  • Tanzu Standard 套件存放庫與 TKG 分開進行版本控制並散發;請參閱下面的 Tanzu Standard 存放庫 v2023.7.13
    • TKG v2.3.0 的最新相容 Tanzu Standard 存放庫版本為 Tanzu Standard 存放庫 v2023.7.13。
  • 您可以跨多個可用區域 (AZ) 執行工作負載和獨立管理叢集,並更改其節點執行中的 AZ。
    • 有關如何跨多個可用區域部署新的工作負載叢集以及變更現有管理叢集和工作負載叢集以在多個或不同的可用區域中執行,請參閱跨多個可用區域執行叢集
    • 如要使用安裝程式介面將新的獨立管理叢集設為跨多個可用區域執行,請參閱設定 vSphere 資源
    • 支援多個 AZ 處於穩定功能狀態。
  • 單節點叢集可升級,並且支援 Telco Cloud Automation (TCA);請參閱 vSphere 上的單節點叢集
    • 簡化的部署過程不需要將 tiny TKr 新增到管理叢集。
    • 無法使用 Tanzu Mission Control (TMC) 建立和管理單節點叢集,但此功能計劃在將來的 TMC 版本中提供。
  • 您可以使用新的叢集組態檔變數 POD_SECURITY_STANDARD_*,以及Cluster 規格 podSecurityStandard設定配置叢集範圍的 Pod 安全性許可 (PSA) 控制器,如 Pod 安全性許可控制器中所述。
    • PSA 支援處於穩定功能狀態。
  • (vSphere) 擴展了叢集內 IP 位址管理 (IPAM) 功能;請參閱節點 IPAM
    • 除了基於類別的工作負載叢集外,獨立管理叢集的 IPAM。
    • IPv6 支援。
    • 不同管理命名空間中的工作負載叢集可以從同一全域 IP 集區配置 IP 位址。
    • IP 集區可以包含非連續 IP 範圍。
    • IP 集區查詢 kubectl get inclusterippool 輸出FREEUSED 位址計數。
    • 叢集組態變數,如《配置檔變數參考》中的節點 IPAM 所述。
    • InClusterIPPool 物件結構與以前的 TKG 版本不同;叢集升級到 v2.3 會將 IP 集區轉換為新結構。
  • 使用 Calico CNI 的叢集執行 IP 位址偵測;請參閱 Pod 和容器網路連接中的 Calico CNI
  • 具有隔離儲存區的 Edge 工作負載叢集可以使用自己的本機儲存區虛擬機器範本;請參閱指定本機虛擬機器範本
  • 新的叢集組態檔變數 VSPHERE_MTU 為 vSphere 上的管理叢集節點和工作負載叢集節點設定傳輸單元最大值 (MTU) 的大小;請參閱設定叢集節點 MTU
  • 您可以透過註解其物件規格將叢集設為使用替代機器映像,而無需建立或修改 TKr;請參閱使用替代機器映像
  • (vSphere) CONTROL_PLANE_NODE_NAMESERVERSWORKER_NODE_NAMESERVERS 現在處於穩定狀態。您可以為在 Ubuntu 或 Photon 上執行的節點設定這些變數;不支援 Windows。有關使用範例,請參閱節點 IPAM
  • 現在,可以升級從先前版本中的自訂 ClusterClass 定義建立的叢集。如需相關資訊,請參閱升級自訂叢集
  • 用於機器健全狀況檢查的新旗標,--max-unhealthy--machine-deployment;請參閱管理工作負載叢集的機器健全狀況檢查
  • 新增 tanzu mc credentials update 選項 --vsphere-thumbprint 允許您使用 Tanzu CLI 更新管理叢集和 vSphere 上工作負載叢集中 vCenter Server 的 TLS 指紋。請參閱更新叢集認證
  • 預設下,新建立基於計劃的叢集不會新增 Tanzu Standard 套件存放庫。
  • Pinniped 元件不再將 Dex 用於 LDAP 身分識別提供者,因此導致以下組態變更:

    • 新組態變數:LDAP_GROUP_SEARCH_SKIP_ON_REFRESH
    • 更新的組態變數:
    • 現在需要 LDAP_BIND_DNLDAP_BIND_PASSWORD
    • LDAP_GROUP_SEARCH_NAME_ATTRIBUTE 預設為 dn
    • LDAP_USER_SEARCH_FILTERLDAP_GROUP_SEARCH_FILTER 必須採用 Pinniped 使用的格式進行設定。
    • 已移除組態變數:LDAP_USER_SEARCH_USERNAMELDAP_USER_SEARCH_EMAIL_ATTRIBUTELDAP_GROUP_SEARCH_GROUP_ATTRIBUTE

    移除 Dex 意味著,必須先變更管理叢集的 LDAP 設定,然後再將其升級到 TKG v2.3;請參閱 (僅限 LDAP) 更新 LDAP 設定
    有關新的和更新的組態變數的詳細資訊,請參閱《組態檔變數參考》中的身分識別提供者 - LDAP

  • 由於 Tanzu Standard 套件存放庫與 TKG 分開散發,因此 TKG BoM 檔不再列出 grafana 容器映像。計劃在未來版本中從 BoM 中移除其他 Tanzu Standard 元件。

Tanzu Standard 存放庫

使用 TKG v2.3,Tanzu Standard 套件存放庫與 TKG 分開進行版本控制和散發,其版本控制基於日期戳記。有關詳細資訊,請參閱下面的 Tanzu Standard 存放庫 v2023.7.13

對於每個 TKG v2.3 修補程式版本,其最新的相容 Tanzu Standard 存放庫版本的版本資訊包括:

支援的 Kubernetes、TKG 和套件版本

從 TKG v2.2 起,VMware 對 TKG 和 TKrs 較舊的修補程式版本支援政策發生變化,這些版本為 TKG 封裝了 Kubernetes 版本。TKG v2.1 和較舊次要 TKG 版本的支援政策則無變化。

前兩節總結了在適用於每個 TKG 和 TKr 的支援政策下,對所有目前支援的 TKG 和 TKr 版本的支援。

下面的第三節列出了 Tanzu Standard 存放庫中受 Kubernetes v1.26、v1.25 和 v1.24 TKr 支援的套件版本。

支援的 Kubernetes 版本:

Tanzu Kubernetes Grid 的每個版本都增加了對其管理叢集的 Kubernetes 版本以及其他 Kubernetes 版本的支援,且這些版本是以 Tanzu Kubernetes 版本 (Tkr) 形式發行,但標記為已知問題者除外。

次要版本:發行時,VMware 支援具有 Kubernetes v1.26、v1.25 和 v1.24 的 TKG v2.3。一旦 TKG v2.1 達到其終止一般支援里程碑後,VMware將不再支援具有 TKG 的 Kubernetes v1.24。一旦 TKG v2.2 達到其終止一般支援里程碑,VMware將不再支援具有 TKG 的 Kubernetes v1.25。

修補程式版本:在 VMware 為次要分支版本發佈新的 TKr 修補程式版本後,會將對較舊修補程式版本的支援保留兩個月。這為客戶提供了 2 個月的時間升級到新的 TKr 修補程式版本。從 TKG v2.2 起,VMware 不支援 Kubernetes 先前次要分支版本中的所有 TKr 修補程式版本。

Tanzu Kubernetes Grid 修補程式版本支援和支援的 TKr 修補程式版本如下所列。

Tanzu Kubernetes Grid 版本 管理叢集的 Kubernetes 版本 提供的 Kubernetes (TKr) 版本
2.3.1 1.26.8 1.26.8、1.25.13、1.24.17
2.3.0 1.26.5 1.26.5、1.25.10、1.24.14
2.2.0 1.25.7 1.25.7、1.24.11、1.23.17
2.1.1 1.24.10 1.24.10、1.23.16、1.22.17
2.1.0 1.24.9 1.24.9、1.23.15、1.22.17

支援的 Tanzu Kubernetes Grid 版本

VMware 支援如下所示的 TKG 版本:

次要版本:VMware 支援遵循 N-2 生命週期政策的 TKG,該政策適用於最新和之前的兩個次要 TKG 版本。有關詳細資訊,請參見 VMware產品生命週期矩陣

修補程式版本:VMware 不支援以前的所有 TKG 修補程式版本。在 Vmware 發行新的 TKG 修補程式版本後,會將對較舊修補程式版本的支援保留兩個月。這為客戶提供了 2 個月的時間升級到新的 TKG 修補程式版本。

  • 例如,對 TKG v2.3.0 的支援將在 TKG v2.3.1 正式發行兩個月後終止。

支援的套件版本

對於 TKG v2.3,Tanzu Standard 存放庫中的套件版本與 Kubernetes 次要版本 v1.26、v1.25 和 v1.24 的 TKrs 相容,如下所示:

套件 套件版本 Kubernetes v1.26 TKr Kubernetes v1.25 TKr Kubernetes v1.24 TKr
Cert Manager
cert-manager.tanzu.vmware.com
1.11.1+vmware.1-tkg.1-20230629
Contour
contour.tanzu.vmware.com
1.24.4+vmware.1-tkg.1-20230629
External DNS
external-dns.tanzu.vmware.com
0.13.4+vmware.2-tkg.1-20230629
0.12.2+vmware.5-tkg.2-20230629
0.11.1+vmware.5-tkg.2-20230629
Fluent Bit
fluent-bit.tanzu.vmware.com
2.1.2+vmware.1-tkg.1-20230629
1.9.5+vmware.1-tkg.3-zshippable
1.8.15+vmware.1-tkg.1
FluxCD Help Controller
fluxcd-helm-controller.tanzu.vmware.com
0.32.0+vmware.1-tkg.2-20230629
0.21.0+vmware.1-tkg.1-zshippable
FluxCD Source Controller
fluxcd-source-controller.tanzu.vmware.com
0.33.0+vmware.2-tkg.1-20230629
Grafana
grafana.tanzu.vmware.com
9.5.1+vmware.2-tkg.1-20230629
7.5.17+vmware.1-tkg.3-zshippable
Harbor
harbor.tanzu.vmware.com
2.8.2+vmware.2-tkg.1-20230629
Multus CNI
multus-cni.tanzu.vmware.com
3.8.0+vmware.3-tkg.1
4.0.1+vmware.1-tkg.1-20230629
Prometheus
prometheus.tanzu.vmware.com
2.43.0+vmware.2-tkg.1-20230629
2.37.0+vmware.3-tkg.1
2.36.2+vmware.1-tkg.1
Whereabouts
whereabouts.tanzu.vmware.com
0.6.1+vmware.2-tkg.1-20230629
0.5.4+vmware.2-tkg.1

Tanzu Kubernetes Grid v2.3 的產品快照

Tanzu Kubernetes Grid v2.3 支援下列基礎結構平台和作業系統 (OS),以及叢集的建立和管理、網路、儲存區、驗證、備份和移轉以及可觀察性元件。

有關與 TKG v2.3 相容的其他套件版本,請參閱《Tanzu 套件說明文件》中的 Tanzu Standard 存放庫 v2023.10.16 版本資訊

有關 TKG v2.3 中包含的元件版本的完整清單,請參閱元件版本

vSphere AWS Azure
基礎結構平台
  • vSphere 7.0、7.0U1-U3
  • vSphere 8.0、8.0U1
  • VMware Cloud on AWS* v1.20、v1.22
  • Azure VMware Solution v2.0
原生 AWS 原生 Azure
Tanzu CLI Tanzu CLI Core v1.0.0**
TKG API 和套件基礎結構 Tanzu Framework v0.30.2
叢集的建立和管理 核心叢集 API (v1.4.5)、叢集 API 提供者vSphere (v1.7.1) 核心叢集 API (v1.4.5)、叢集 API 提供者 AWS (v2.1.3) 核心叢集 API (v1.4.5)、叢集 API 提供者 Azure (v1.9.2)
隨 TKG 發行的 Kubernetes 節點作業系統 Photon OS 3、Ubuntu 20.04 Amazon Linux 2、Ubuntu 20.04 Ubuntu 18.04、Ubuntu 20.04
建置您自己的映像 Photon OS 3、Red Hat Enterprise Linux 7*** 和 8、Ubuntu 18.04、Ubuntu 20.04、Windows 2019 Amazon Linux 2、Ubuntu 18.04、Ubuntu 20.04 Ubuntu 18.04、Ubuntu 20.04
容器執行階段 Containerd (v1.6.18)
容器網路 Antrea (v1.11.2)、Calico (v3.25.1)、Multus CNI (v4.0.1、v3.8.0)
容器登錄 Harbor (v2.8.4)
入口 NSX Advanced Load Balancer Essentials 和 Avi 控制器 **** (v21.1.4-v21.1.6、v22.1.2-v22.1.3)、NSX v4.1.0 (vSphere 8.0.u1)、v3.2.2 (vSphere 7)、Contour (v1.25.2) Contour (v1.25.2) Contour (v1.25.2)
儲存區 vSphere容器儲存區介面 (v3.0.1*****) 和vSphere雲端原生儲存 Amazon EBS CSI 驅動程式 (v1.18.0) 和樹狀結構內雲端提供者 Azure 磁碟 CSI 驅動程式 (v1.27.1)、Azure 檔案 CSI 驅動程式 (v1.27.0) 以及樹狀結構內雲端提供者
驗證 透過 Pinniped 的 OIDC 和 LDAP (v0.24.0)
可觀察性 Fluent Bit (v2.1.6)、Prometheus (v2.45.0, v2.37.0)******、Grafana (v10.0.1)
服務探索 外部 DNS (v0.13.4)
備份和移轉 Velero (v1.10.3)

* 如需與此版本相容的 VMware Cloud on AWS SDDC 版本清單,請參閱 VMware 產品互通性對照表

** 有關與此版本相容的 Tanzu CLI 版本的完整清單,請參見產品互通性對照表

*** Tanzu Kubernetes Grid v1.6 是支援建置 Red Hat Enterprise Linux 7 映像的最新版本。

**** 在 vSphere 8 上,若要將 NSX Advanced Load Balancer 與 TKG 獨立管理叢集及其工作負載叢集結合使用,您需要 NSX ALB v22.1.2 或更新版本以及 TKG v2.1.1 或更新版本。

***** vsphere_csi_driver 版本。如需此版本中包含的 vSphere 容器儲存區介面元件的完整清單,請參見元件版本

****** 如果將叢集升級到 Kubernetes v1.25,則必須至少將 Prometheus 升級到版本 2.37.0+vmware.3-tkg.1。Prometheus 軟體套件的早期版本 (例如版本 2.37.0+vmware.1-tkg.1) 與 Kubernetes 1.25 不相容。

有關 Tanzu Kubernetes Grid v2.3 隨附的 Kubernetes 版本的完整清單,請參見上述支援的 Kubernetes 版本

元件版本

TKG v2.3.x 版本包括以下軟體元件版本:

附註

以前的 TKG 版本包括現在透過 Tanzu Standard 存放庫散發的元件。有關這些元件的清單,請參見下面的 Tanzu Standard 存放庫

元件 TKG v2.3.1 TKG v2.3.0
aad-pod-identity v1.8.15+vmware.2 v1.8.15+vmware.2*
addons-manager v2.2+vmware.1 v2.2+vmware.1*
ako-operator v1.9.0_vmware.1 v1.9.0_vmware.1*
alertmanager v0.25.0_vmware.4* v0.25.0_vmware.3*
antrea v1.11.2_vmware.1* v1.11.1_vmware.4*
antrea-interworking v0.11.1* v0.11.0*
aws-ebs-csi-driver v1.18.0+vmware.2 v1.18.0+vmware.2*
azuredisk-csi-driver v1.27.1+vmware.3* v1.27.1+vmware.2*
azurefile-csi-driver v1.27.0+vmware.3* v1.27.0+vmware.2*
calico v3.25.1+vmware.2 v3.25.1+vmware.2*
capabilities-package v0.30.2-capabilities* v0.30.2-capabilities*
carvel-secretgen-controller v0.14.2+vmware.2 v0.14.2+vmware.2*
cloud-provider-azure v1.1.26+vmware.1、
v1.23.23+vmware.1、
v1.24.10+vmware.1
v1.1.26+vmware.1、
v1.23.23+vmware.1、
v1.24.10+vmware.1
cloud_provider_vsphere

v1.24.6+vmware.1、
v1.26.2+vmware.1、
v1.25.3+vmware.1

v1.24.6+vmware.1*
v1.26.2+vmware.1*
v1.25.3+vmware.1*

cluster-api-provider-azure v1.9.2+vmware.1 v1.9.2+vmware.1*
cluster_api v1.4.5+vmware.1* v1.4.2+vmware.3*
cluster_api_aws v2.1.3+vmware.0 v2.1.3+vmware.0*
cluster_api_vsphere v1.7.1+vmware.0* v1.7.0+vmware.0*
cni_plugins v1.1.1+vmware.28* v1.1.1+vmware.23*
configmap-reload v0.8.0+vmware.3* v0.8.0+vmware.2*
containerd v1.6.18+vmware.1 v1.6.18+vmware.1
coredns v1.9.3+vmware.16* v1.9.3+vmware.11*
crash-diagnostics v0.3.7+vmware.7 v0.3.7+vmware.7*
cri_tools v1.25.0+vmware.10* v1.25.0+vmware.6*
csi_attacher v4.2.0+vmware.4*
v4.0.0+vmware.1,
v3.5.0+vmware.1、
v3.4.0+vmware.1、
v3.3.0+vmware.1
v4.2.0+vmware.2*
v4.0.0+vmware.1*
v3.5.0+vmware.1、
v3.4.0+vmware.1、
v3.3.0+vmware.1
csi_livenessprobe v2.9.0+vmware.4*
v2.8.0+vmware.1、
v2.7.0+vmware.1、
v2.6.0+vmware.1、
v2.5.0+vmware.1、
v2.4.0+vmware.1
v2.9.0+vmware.2*
v2.8.0+vmware.1*
v2.7.0+vmware.1、
v2.6.0+vmware.1、
v2.5.0+vmware.1、
v2.4.0+vmware.1
csi_node_driver_registrar v2.7.0+vmware.4*
v2.7.0+vmware.2、
v2.6.3+vmware.1、
v2.6.2+vmware.1、
v2.5.1+vmware.1、
v2.5.0+vmware.1、
v2.3.0+vmware.1
v2.7.0+vmware.1*
v2.7.0+vmware.2*
v2.6.3+vmware.1*
v2.6.2+vmware.1*
v2.5.1+vmware.1、
v2.5.0+vmware.1、
v2.3.0+vmware.1
csi_provisioner v3.4.1+vmware.3*
v3.4.0+vmware.4*
v3.3.0+vmware.1、
v3.2.1+vmware.1、
v3.1.0+vmware.2
v3.4.1+vmware.2*
v3.4.0+vmware.2*
v3.3.0+vmware.1*
v3.2.1+vmware.1、
v3.1.0+vmware.2
dex 不適用 已移除
envoy v1.25.9+vmware.1* v1.25.6+vmware.1*
external-snapshotter v6.2.1+vmware.4*
v6.1.0+vmware.1、
v6.0.1+vmware.1、
v5.0.1+vmware.1
v6.2.1+vmware.2*
v6.1.0+vmware.1*
v6.0.1+vmware.1、
v5.0.1+vmware.1
etcd v3.5.6+vmware.20* v3.5.6+vmware.14*
guest-cluster-auth-service v1.3.0_tkg.2 v1.3.0_tkg.2
image-builder v0.1.14+vmware.1 v0.1.14+vmware.1*
image-builder-resource-bundle v1.26.8+vmware.1-tkg.2* v1.26.5+vmware.2-tkg.1*
imgpkg v0.36.0+vmware.2 v0.36.0+vmware.2*
jetstack_cert-manager (cert-manager) v1.11.1+vmware.1 v1.11.1+vmware.1*
k8s-sidecar v1.22.4+vmware.2* v1.22.0+vmware.2*
v1.15.6+vmware.5、
v1.12.1+vmware.6
k14s_kapp (kapp) v0.55.0+vmware.2 v0.55.0+vmware.2*
k14s_ytt (ytt) v0.45.0+vmware.2 v0.45.0+vmware.2*
kapp-controller v0.45.2+vmware.1 v0.45.2+vmware.1*
kbld v0.37.0+vmware.2 v0.37.0+vmware.2*
kube-state-metrics v2.8.2+vmware.1 v2.8.2+vmware.1*
kube-vip v0.5.12+vmware.1 v0.5.12+vmware.1
kube-vip-cloud-provider v0.0.5+vmware.1、
v0.0.4+vmware.4
v0.0.5+vmware.1*
v0.0.4+vmware.4
kubernetes v1.26.8+vmware.1*
v1.25.13+vmware.1*
v1.24.17+vmware.1*
v1.26.5+vmware.2*
v1.25.10+vmware.2*
v1.24.14+vmware.2
kubernetes-csi_external-resizer v1.7.0+vmware.4*
v1.6.0+vmware.1、
v1.5.0+vmware.1、
v1.4.0+vmware.1
v1.7.0+vmware.2*
v1.6.0+vmware.1*
v1.5.0+vmware.1*
v1.4.0+vmware.1
kubernetes-sigs_kind v1.26.8+vmware.1-tkg.2_v0.17.0*
v1.25.13+vmware.2-tkg.1_v0.17.0*
v1.24.17+vmware.2-tkg.1_v0.17.0*
v1.26.5+vmware.2-tkg.1_v0.17.0*
v1.25.10+vmware.2-tkg.1_v0.17.0*
v1.24.14+vmware.2-tkg.1_v0.17.0*
kubernetes_autoscaler v1.26.2+vmware.1 v1.26.2+vmware.1*
load-balancer-and-ingress-service (AKO) v1.9.3+vmware.2-tkg.1 v1.9.3+vmware.2-tkg.1*
metrics-server v0.6.2+vmware.1 v0.6.2+vmware.1
pinniped v0.24.0+vmware.1-tkg.1 v0.24.0+vmware.1-tkg.1*
pinniped-post-deploy v0.24.0+vmware.1 v0.24.0+vmware.1*
prometheus_node_exporter v1.5.0+vmware.3* v1.5.0+vmware.2*
pushgateway v1.5.1+vmware.3* v1.5.1+vmware.2*
sonobuoy v0.56.16+vmware.2 v0.56.16+vmware.2*
tanzu-framework v0.30.2* v0.30.2*
tanzu-framework-addons v0.30.2* v0.30.2*
tanzu-framework-management-packages v0.30.2* v0.30.2*
tkg-bom v2.3.1* v2.3.0*
tkg-core-packages v1.26.8+vmware.1-tkg.2* v1.26.8+vmware.2-tkg.1*
tkg-standard-packages v2023.10.16* v2023.7.13*
tkg-storageclass-package v0.30.2* v0.30.2*
tkg_telemetry v2.3.1+vmware.3* v2.3.0+vmware.2*
velero v1.10.3+vmware.1 v1.10.3+vmware.1*
velero-mgmt-cluster-plugin* v0.2.0+vmware.1 v0.2.0+vmware.1*
velero-plugin-for-aws v1.6.2+vmware.1 v1.6.2+vmware.1*
velero-plugin-for-csi v0.4.3+vmware.1 v0.4.3+vmware.1*
velero-plugin-for-microsoft-azure v1.6.2+vmware.1 v1.6.2+vmware.1*
velero-plugin-for-vsphere v1.5.1+vmware.1 v1.5.1+vmware.1*
vendir v0.33.1+vmware.2 v0.33.1+vmware.2*
vsphere_csi_driver v3.0.1+vmware.4* v3.0.1+vmware.2*

* 表示自先前版本以來新增的元件或版本更新。TKG v2.3.0 之前為 v2.3.1 而 TKGv2.2.0 之前為 v2.3.0。

如需 TKG v2.3 隨附的軟體元件版本的完整清單,請使用 imgpkg 提取存放庫服務包,然後列出其內容。例如,要列出 TKG v2.3.1 Tanzu Standard 存放庫隨附的元件版本,請執行以下命令:

imgpkg pull -b projects.registry.vmware.com/tkg/packages/standard/repo:v2023.10.16 -o standard-2023.10.16

如以下所列的本機 BOM 檔案也會列出套件版本,但可能不是最新的:

  • ~/.config/tanzu/tkg/bom/tkg-bom-v2.3.1.yaml
  • ~/.config/tanzu/tkg/bom/tkr-bom-v1.26.8+vmware.2-tkg.1.yaml

支援的升級路徑

在 TKG 升級路徑中,v2.3 緊接在 v2.2.0 之後。

您只能從 v2.2.x 升級到 Tanzu Kubernetes Grid v2.3.x。如果要從早於 v2.2.x 的版本升級到 Tanzu Kubernetes Grid v2.3.x,必須先升級到 v2.2.x。

在工作負載叢集上升級 Kubernetes 版本時,無法跳過次要版本。例如,您無法將 Tanzu Kubernetes 叢集直接從 v1.24.x 升級到 v1.26.x。必須先將 v1.24.x 叢集升級到 v1.25.x,再將叢集升級到 v1.26.x。

發行日期

Tanzu Kubernetes Grid v2.3 發行日期為:

  • v2.3.1:2023 年 11 月 9 日
  • v2.3.0:2023 年 8 月 1 日

Tanzu Kubernetes Grid v2.3 中的行為變更

相較於 v2.2.0 (先前的最新版本),Tanzu Kubernetes Grid v2.3 中引入了下列的新行為。

  • Carvel 工具以專用下載服務包提供。有關資訊,請參閱安裝 Carvel 工具
  • 使用 OIDC 身分識別提供者 (IDP) 透過 Pinniped 進行身分識別和存取管理時,必須將 OIDC IDP 設為頒發重新整理 Token。

    • 這可能需要在 OIDC IDP 中進行一些其他組態。
    • 有關 Okta 範例,請參閱設定身分識別管理
    • 如果您的 OIDC IDP 需要其他範圍或參數才能傳回重新整理 Token,請使用所需的範圍或參數配置 OIDC_IDENTITY_PROVIDER_SCOPESOIDC_IDENTITY_PROVIDER_ADDITIONAL_AUTHORIZE_PARAMS
  • Tanzu Kubernetes Grid 不再將 Dex 用於 LDAP 身分識別提供者。《組態檔變數參考》的身分識別提供者 - LDAP 部分中列出的每個組態變數現在都與 Pinniped LDAPIdentityProvider 自訂資源中的組態設定相對應。在將組態為使用 LDAP 身分識別提供者的管理叢集升級到 Tanzu Kubernetes Grid v2.3 之前,請按照(僅限 LDAP)更新 LDAP 設定 中所述更新 LDAP 設定。在將管理叢集升級到 v2.3 期間,所有現有的 LDAP 設定將自動移轉到新的 Pinniped 格式。
  • 與舊版 TKG 隨附的 Velero 版本相比,Velero v1.10 引入了重大變更。有關如何在從 Velero v1.9.x 升級到 v1.10 時緩解這些重大變更的資訊,請參閱升級 Velero
  • 將 Tanzu Kubernetes Grid 升級到 AWS 上的 v2.3 時,必須在升級 Tanzu CLI 之後但在升級管理叢集之前執行 tanzu mc permissions aws set。有關詳細資訊,請參閱準備升級叢集中的 AWS 索引標籤。
  • 建立自訂 ClusterClass 物件定義時,不再從 Tanzu Framework 存放庫下載預設清單。建立管理叢集或安裝 Tanzu CLI 或從 TKG 映像存放庫中提取時,可以使用預設清單。有關詳細資訊,請參閱建立自訂 ClusterClass
  • 部署工作負載叢集的 Kubernetes 修補程式版本低於其次要版本支援的最新修補程式版本時,需要在部署叢集之前為其 Tkr 建立 ConfigMap 物件。請參閱多個 Kubernetes 版本 (Multiple Kubernetes Versions) 頁面上的「部署 Kubernetes 叢集」

未來行為變更通知

本節提供了將在未來版本 (TKG v2.3 版本之後的版本) 中生效的行為變更的預先通知。

取代通知

tanzu login 命令將在 TKG 的未來版本中移除。命令將取代為 tanzu context 命令。有關詳細資訊,請參閱《VMware Tanzu CLI 說明文件》中的 tanzu 內容

使用者說明文件

部署和管理 TKG 2.3 獨立管理叢集中含有獨立管理叢集的特定主題,這些主題與「將 TKG 與 vSphere with Tanzu 主管搭配使用」無關。

如需詳細資訊,請參閱《VMware Tanzu Kubernetes Grid 說明文件》頁面上的尋找適合您部署的 TKG 文件

已解決的問題

已在 v2.3.1 中解決

Tanzu Kubernetes Grid v2.3.1 解決了未記錄的客戶問題和錯誤。

已在 v2.3.0 中解決

以下是在 Tanzu Kubernetes Grid 舊版發行中記錄成「已知問題」,但已在 Tanzu Kubernetes Grid v2.3 中解決的問題。

  • 在 vSphere 8 上不支援 IPv6 網路

    TKG v2.3 在 vSphere 8 上不支援 IPv6 網路,但是在 vSphere 7 上它支援使用 Kube-Vip 來建立單堆疊 IPv6 網路 (如 IPv6 網路中所述)。

  • 叢集 autoscaler 不會將預期的金鑰新增到 MachineDeployment

    如果建立啟用了叢集 autoscaler 的叢集,預期金鑰 cluster.x-k8s.io/cluster-api-autoscaler-node-group-max-sizecluster.x-k8s.io/cluster-api-autoscaler-node-group-min-size 都不會新增到 metadata.annotations 中的 MachineDeployment

  • ClusterClass 組態中缺少 Worker 節點推出變數

    所有目標平台的 ClusterClass 組態中均缺少用於為工作負載叢集 WORKER_ROLLOUT_STRATEGY 設定推出策略的 MachineDeployments 變數。現在,您可以在基於類別的叢集以及基於計劃的舊版叢集上設定 WORKER_ROLLOUT_STRATEGY 變數。如需詳細資訊,請參閱〈組態檔變數參考〉中的啟用了 GPU 的叢集

  • AWS 上的工作負載叢集節點集區必須與獨立管理叢集位於相同的可用區域中。

    建立節點集區時,如果所設定的 az 不同於管理叢集的所在位置,則新的節點集區可能會一直停滯在 ScalingUp 狀態 (如 tanzu cluster node-pool list 所列),且永遠不會達到 Ready 狀態。

  • 重建獨立管理叢集時,不會還原 Pinniped 驗證

    在您依照備份和還原管理叢集和工作負載叢集的基礎結構 (技術預覽) 中所述,來重建獨立管理叢集後,使用者無法透過 Pinniped 驗證來登入工作負載叢集。

  • 當執行 ID 超過 1000000 時,Harbor CVE 匯出可能會失敗

    Harbor v2.7.1 (TKG v2.2 封裝的版本) 存在已知問題,即在執行主要金鑰時自動增量 ID 到 1000000+ 時,CVE 報告匯出錯誤「找不到 404 (404 page not found)」。

  • tanzu package available get--default-values-file-output 選項為 Harbor 套件輸出不完整的組態範本檔

    執行 tanzu package available get harbor.tanzu.vmware.com/PACKAGE-VERSION --default-values-file-output FILE-PATH 會為 Harbor 套件建立不完整的組態範本檔。

  • 以類別為基礎的叢集的 Autoscaler 需要手動註解

    由於叢集 API 中的標籤傳播問題,以類別為基礎的工作負載叢集的叢集組態檔中的 AUTOSCALER_MIN_SIZE_*AUTOSCALER_MAX_SIZE_* 設定並未設定在叢集的 MachineDeployment 物件中,必須手動新增。

  • 以類別為基礎的叢集名稱具有 25 個字元的限制,並以 NSX ALB 作為負載平衡器服務或輸入控制器

    將 NSX Advanced Load Balancer (ALB) 用作以類別為基礎的叢集的負載平衡器服務或具有獨立管理叢集的輸入控制器時,其應用程式名稱包括叢集名稱和 AKO 套件的內部名稱 load-balancer-and-ingress-service。當組合名稱超過 Avi 控制器應用程式的 64 個字元限制時,tanzu cluster create 命令可能會失敗,並顯示錯誤:「找不到 avi-system 命名空間」。

    因應措施:使用 NSX ALB 作為負載平衡器或輸入控制器時,請將以類別為基礎的叢集名稱長度限制為 25 個或以下的字元。

已知問題

以下是 Tanzu Kubernetes Grid v2.3.x 中的已知問題。在後續 v2.3.x 修補程式發行版本中解決的存在於 v2.3.0 中的任何已知問題,都列在修正這些問題的修補程式發行版本的已解決的問題之下。

您可以在疑難排解管理叢集問題疑難排解工作負載叢集問題VMware 知識庫文章中找到常見問題的其他解決方案。

套件

  • 為單節點叢集新增標準存放庫失敗

    執行 tanzu package repository addtanzu-standard 存放庫新增至 vSphere 上的單節點叢集中所述類型的單節點叢集時可能會失敗。

    發生這種情況的原因是,單節點叢集會使用 cert-manager 作為核心附加元件進行開機,這與 tanzu-standard 存放庫中不同的 cert-manager 套件相衝突。

    因應措施:在新增 tanzu-standard 存放庫之前,請依照安裝 cert-manager 中所述修補 cert-manager 套件註解。

叢集作業

  • 在 AWS 和 Azure 上,使用物件規格建立工作負載叢集失敗,並顯示區/區域錯誤

    預設下,在 AWS 或 Azure 上,執行 tanzu cluster create 並將基於類的叢集物件規格傳遞到 --file 會導致 Tanzu CLI 執行僅與 vSphere 可用區相關的區域和區驗證。

    解決方法在 AWS 或 Azure 上建立以類別為基礎的叢集時,請根據使用建立以類別為基礎的叢集中所述的單步驟或兩步驟程序執行以下任一操作:

    • 單步驟:按照所述的單步驟程序執行操作,方法是將 features.cluster.auto-apply-generated-clusterclass-based-configuration 設為 true 並且不將 --dry-run 傳遞到 tanzu cluster create 命令。

    • 雙步驟:按照物件規格執行 tanzu cluster create 作為第二步驟之前,在本機環境中將 SKIP_MULTI_AZ_VERIFY 設為 true

      export SKIP_MULTI_AZ_VERIFY=true
      
  • 使用容量有限的叢集時,元件無法排程

    對於管理叢集和工作負載叢集,如果部署具有單個控制平面節點、單個 worker 節點或小型或中型叢集的叢集,可能會遇到資源排程爭用問題。

    因應措施:使用單節點叢集或總共具有三個或更多節點的叢集。

  • 無法根據具有 Antrea CNI 的非目前 TKr 版本建立新的工作負載叢集

    您無法建立使用 Antrea CNI 並執行先前版本 TKG 隨附的 Kubernetes 版本 (如 Kubernetes v1.23.10) 的新工作負載叢集,這是 TKG v1.6.1 中預設的 Kubernetes 版本,如 Tanzu Kubernetes Grid v2.2 中支援的 Kubernetes 版本所列。

    因應措施:建立執行 Kubernetes 1.26.8、1.25.13 或 1.24.17 的工作負載叢集。Kubernetes 專案建議您在目前任何次要版本的最新修補程式版本上執行元件。

  • 您無法將管理叢集控制平面節點數調整為偶數

    如果您在管理叢集上執行 tanzu cluster scale,並傳遞一個偶數給 --controlplane-machine-count 選項,則 TKG 不會調整控制平面節點,且 CLI 不會輸出錯誤。為了維護仲裁,控制平面節點計數應一律是奇數。

    因應措施:不要將控制平面節點計數調整為偶數。

網路

附註

若為 v4.0 以上,VMware NSX-T Data Center 已重新命名為「VMware NSX」。

  • 部分NSX ALB 組態變數無法運作

    在 TKG v2.3 中,管理叢集組態變數 AVI_DISABLE_INGRESS_CLASSAVI_DISABLE_STATIC_ROUTE_SYNCAVI_INGRESS_DEFAULT_INGRESS_CONTROLLER 不起作用。

    如要將管理叢集的任何基礎屬性設為非預設值 true,需要在建立管理叢集後手動編輯管理叢集的兩個 AKODeploymentConfig 組態物件,如下所述。

    因應措施:編輯管理叢集中的 install-ako-for-allinstall-ako-for-management-cluster 物件:

    1. kubectl 內容設定為管理叢集:

      kubectl config use-context MGMT-CLUSTER-CONTEXT
      
    2. 編輯 install-ako-for-allinstall-ako-for-management-cluster 組態:

      kubectl edit adc install-ako-for-all
      
      kubectl edit adc install-ako-for-management-cluster
      
    3. 在組態中,視需要設定下列內容:

      • extraConfigs.ingress.disableIngressClass - 適用於 config var AVI_DISABLE_INGRESS_CLASS
      • extraConfigs.disableStaticRouteSync - 適用於 config var AVI_DISABLE_STATIC_ROUTE_SYNC
      • extraConfigs.ingress.defaultIngressController - 適用於 config var AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER
    4. 儲存並結束。

    這些設定將套用至管理叢集後續建立的工作負載叢集。

  • 管理叢集不支援 NSX ALB NodePortLocal 輸入模式

    在 TKG v2.3 中,當使用輸入模式 NodePortLocal 來將流量傳輸至管理叢集時,您無法將 NSX Advanced Load Balancer (ALB) 當成服務類型來執行。

    此問題不會影響支援使用 NodePortLocal 輸入來傳輸到工作負載叢集,如 NodePortLocal 模式下的 L7 輸入中所述。

    因應措施:AVI_INGRESS_SERVICE_TYPE 設定為 NodePortClusterIP,來設定管理叢集。預設值為 NodePort

  • 如果使用較舊的 NSX-T 版本和 Photon 3,或使用具有 Linux 核心 5.8 虛擬機器的 Ubuntu,則管理叢集會建立失敗或是效能下降

    如果部署具有以下基礎結構和組態的管理叢集,則可能失敗或導致網繭之間的流量受限:

    • 具有以下任一版本 NSX-T 的 vSphere
      • 啟用了「增強型資料路徑」的 NSX-T v3.1.3
      • 低於 v3.1.3 的 NSX-T v3.1.x
      • 低於 v3.0.2 即時修補程式的 NSX-T v3.0.x
      • NSX-T v2.x。這包括使用 NSX-T v2.5 的 Azure VMware 解決方案 (AVS) v2.0
    • 基礎映像:Photon 3 或具有 Linux 核心 5.8 的 Ubuntu

    此組合暴露了舊版 NSX-T 和 Antrea CNI 之間的總和檢查問題。

    TMC:如果管理叢集已向 Tanzu Mission Control (TMC) 登錄,則此問題沒有因應措施。否則,請參閱下面的因應措施。

    因應措施:

    • 在部署工作負載叢集時,將 ANTREA_DISABLE_UDP_TUNNEL_OFFLOAD 設定為 "true"。此設定會停用 Antrea 的 UDP 總和檢查卸載,從而避免某些底層網路和實體 NIC 網路驅動程式的已知問題。
    • 升級到 NSX-T v3.0.2 即時修補程式、v3.1.3 或更新版本,且不啟用「增強型資料路徑」
    • 將 Ubuntu 基礎映像與 Linux 核心 5.9 或更新版本搭配使用。

儲存區

  • 工作負載叢集無法跨多個資料存放區分配儲存

    無法啟用工作負載叢集以在多個資料存放區分配儲存,如部署使用資料存放區的叢集中所述。如果將資料存放區叢集中的多個資料存放區標記為工作負載叢集儲存原則的基礎,則工作負載叢集僅使用其中一個資料存放區。

    因應措施:無

Tanzu CLI

  • HTTP/HTTPS Proxy 密碼中不能使用非英數字元

    使用 CLI 來部署管理叢集時,不能在密碼中使用非英數字元 # ` ^ | / ? % ^ { [ ] } \ " < >。此外,當使用 UI 來部署管理叢集時,不能在 HTTP/HTTPS Proxy 密碼中使用任何非英數字元。

    因應措施:使用 CLI 來部署管理叢集時,您可以在密碼中使用 # ` ^ | / ? % ^ { [ ] } \ " < > 以外的非英數字元。

  • Tanzu CLI 在具有 ARM 處理器的 macOS 機器上無法運作

    Tanzu CLI v0.11.6 在具有 ARM (Apple M1) 晶片的 macOS 機器上無法運作,如 Finder > 關於這台 Mac (About This Mac) > 概觀 (Overview) 下所示。

    因應措施:使用具有 Linux 或 Windows 作業系統的啟動機器,或使用具有 Intel 處理器的 macOS 機器。

  • Tanzu CLI 列出 tanzu management-cluster osimage

    management-cluster 命令群組列出了 tanzu management-cluster osimage。此功能目前正在開發中,並保留供未來使用。

    因應措施:請勿使用 tanzu management-cluster osimage

vSphere

  • 在等待叢集控制平面變為可用時,將管理叢集部署到 vSphere 7 失敗

    如果在將管理叢集部署到 vSphere 7 時指定虛擬機器網路,部署將失敗並顯示以下錯誤:unable to set up management cluster: unable to wait for cluster control plane available: control plane is not available yet

    因應措施:網路「虛擬機器網路」具有 VsVipServiceEngine 的多個已設定子網路靜態 IP。在虛擬機器網路上將 exclude_discovered_subnets 設為 True,以忽略發現的子網路並允許將虛擬服務放置在服務引擎上。

  • 在為可用區域指派虛擬機器時,可以刪除可用區域

    如果刪除包含虛擬機器的可用區域,則後續無法刪除這些虛擬機器。

    因應措施:從可用區域中移除所有虛擬機器,然後再將其刪除。

  • 由於 VPXD 工作階段耗盡,建立工作負載叢集失敗

    在 vSphere 上建立工作負載叢集時,建立失敗並顯示以下錯誤:

    vSphere config validation failed: failed to get VC client: failed to create vc client: Post "https://address/sdk": EOF ". VCenter vpxd.log report error: Out of HTTP sessions: Limited to 2000
    

    發生這種情況的原因是 vCenter Server 工作階段耗盡。

    因應措施:請參閱 VMware 知識庫文章 50114010

  • 使用 small 節點來建立的節點集區可能會停滯在 Provisioning 狀態。

    建立節點集區時,如果將節點 SIZE 設定為 small,則集區可能停滯在 Provisioning 狀態,且永遠不會進入 Running 狀態。

    因應措施:將節點集區設定成至少具有 medium 大小的節點。

Windows

  • 在網際網路受限的環境中不支援 Windows worker

    Vmware 不支援在代理或氣隙環境中具有 Windows Worker 節點的 TKG 工作負載叢集。

    因應措施:請聯絡您的 VMware 代表。某些 TKG 使用者建立了 Windows 自訂映像,並在離線環境中使用 Windows worker 執行工作負載叢集,例如,如此非官方存儲庫中所述。

Image-Builder

  • 在映像建置程序期間,發生可忽略的 goss 測試失敗

    在您執行 Kubernetes Image Builder 以建立 Linux 自訂機器映像時,goss 測試 python-netifacespython-requestsebtables 失敗。命令輸出會報告失敗情況。這些錯誤可以忽略;它們不會妨礙映像建置成功。

AVS

  • AVS 上的 vSphere CSI 磁碟區刪除可能會失敗

    在 Azure vSphere 解決方案 (AVS) 上,刪除 vSphere CSI 持續性磁碟區 (PV) 可能會失敗。刪除 PV 時,需要 cns.searchable 權限。未使用此權限來建立 AVS 的預設管理員帳戶 ([email protected])。如需詳細資訊,請參閱 vSphere 角色和權限

    因應措施:若要刪除 AVS 上的 vSphere CSI PV,請連絡 Azure 支援。

Tanzu Standard 存放庫 v2023.7.13

使用 TKG v2.3,Tanzu Standard 套件存放庫與 TKG 分開進行版本控制和散發,其版本控制基於日期戳記。

對於 TKG v2.3.0 和 v2.3.1,TKG 修補程式版本及其最新的相容 Tanzu Standard 存放庫版本大約在同一日期發佈。

未來的 Tanzu Standard 存放庫版本可能會比 TKG 版本更頻繁發佈,但所有修補程式版本都將保持 TKG 的次要版本與 Tanzu Standard 之間的現有相容性。

對於每個 TKG v2.3 修補程式版本,其最新的相容 Tanzu Standard 存放庫版本為:

Tanzu Standard 存放庫套件支援

VMware 為 VMware Tanzu Standard 存放庫中提供的可選套件提供以下支援:

  • VMware 為可選 VMware Tanzu Standard 存放庫中部署在 Tanzu Kubernetes Grid 上的套件提供安裝和升級驗證。此驗證僅限於安裝和升級套件,但包括解決 CVE 所需的任何可用更新。任何錯誤修復、功能增強和安全修復將在新的套件版本中提供,但前提是這些版本在上游套件專案中可用。
  • VMware 不會為 Tanzu 標準存放庫提供的元件提供執行階段層級支援。VMware 不提供組態和效能相關問題的偵錯,或偵錯和修復套件本身。
  • VMware 在 Tanzu Kubernetes Grid 上部署 VMware 支援的套件 Harbor、Contour 和 Velero 時提供執行時期層級支援。

Cert-manager v1.11.1

新增功能

支援的版本

TKG 版本 jetstack_cert-manager 版本 vmware cert-manager 套件版本 Kubernetes 版本相容性
2.3 v1.11.1 v1.11.1+vmware.1 1.21-1.27

元件版本

cert manager v1.11.1 包含以下元件映像版本:

  • quay.io/jetstack/cert-manager-cainjector:v1.11.1
  • quay.io/jetstack/cert-manager-controller:v1.11.1
  • quay.io/jetstack/cert-manager-webhook:v1.11.1
  • quay.io/jetstack/cert-manager-acmesolver:v1.11.1

棄用

TKG v2.3 中已棄用以下 cert manager 版本:

  • v1.5.3
  • v1.7.2
  • v1.10.2

Contour v1.24.4

新增功能

  • 請參閱 Contour v1.24.0-4 的版本資訊:
  • 您可以將 Envoy 設定為使用指定數量的複本安裝為部署,而不是 DaemonSet (預設),使用如下資料值:
    envoy: 
      workload: 
        type: Deployment 
        replicas: 3
    
  • 您可以使用如下資料值為 Contour 和 Envoy 工作負載中的每個容器指定資源請求或限制:

    contour: 
      resources: 
        contour: 
          requests: 
            cpu: 250m 
            memory: 128Mi 
          limits: 
            cpu: 1 
    
            memory: 512Mi
    envoy:
      resources:
        envoy:
    # include requests and limits as desired
        shutdown-manager:
    # include requests and limits as desired 
    
  • 驗證 data-values 檔案組態值。在資料值中指定不受支援的值會導致錯誤。

支援的 Kubernetes 版本:

Kubernetes v1.24-v1.26 支援 Contour v1.24.4。請參閱 Contour 相容性對照表

棄用

  • v1.24.4 之前的所有 Contour 版本均已從 Tanzu Standard 儲存庫 v2023.7.13 中移除。
  • Contour 套件 data-values 檔案不再接受 null 值。對於設為 null 的值之任何組態欄位,應完全忽略該值。

External-csi-snapshot-webhook v6.1.0

新增功能

  • external-csi-snapshot-webhook 是 TKG v2.3 的新套件
  • 具有 vSphere 8.0U2 主管的 TKG v2.3 支援主管及其部署的工作負載叢集的 CSI 快照,但您首先需要使用 Tanzu CLI 明確安裝 external-csi-snapshot-webhook v6.1.0

支援的版本

TKG 版本 external-csi-snapshot-webhook 版本 預期的 Kubernetes 版本相容性 已在 Kubernetes 版本上測試
2.3.0 6.1.0 1.18 - 最新 1.24

相依性

  • external-csi-snapshot-webhook 需要使用 cert-manager,以便與 Kubernetes API 伺服器進行安全的 X509 通訊。

元件版本

external-csi-snapshot-webhook 包含以下元件映像版本:

  • registry.k8s.io/sig-storage/snapshot-validation-webhook:v6.1.0

外部 DNS v0.13.4

新增功能

  • 請參閱外部 DNS v0.13.4 版本資訊
  • 新的 createNamespace 組態欄位。設為 true 可建立在其中安裝 external-dns 元件的命名空間。如果設為 false,套件將安裝到現有命名空間中。

Fluent-bit v2.1.2

新增功能

限制/已知問題

  • 不支援 fluent-bit 套件 ConfigMap 中用於存取 AWS S3 的 AWS 認證環境變數。
    • AWS 認證支持計劃在未來版本中發佈。

Fluxcd 控制器

新增功能

請參閱以下 Fluxcd 控制器套件版本資訊:

Grafana v9.5.1

新增功能

元件版本

Grafana v9.5.1 包含以下元件映像版本:

  • grafana/grafana:9.5.1
  • kiwigrid/k8s-sidecar:1.22.0

Harbor v2.8.2

新增功能

  • 請參閱 Harbor v2.8.2 版本資訊
  • 由於 CVE,TKG v2.3 與以下 Harbor 版本的相容性已移除:
    • v2.2.3_vmware.1-tkg.1
    • v2.2.3_vmware.1-tkg.2
    • v2.3.3_vmware.1-tkg.1
    • v2.5.3_vmware.1-tkg.1
    • v2.7.1_vmware.1-tkg.1

元件版本

Harbor v2.8.2 包含以下元件映像版本:

  • harbor-core:v2.8.2
  • harbor-db:v2.8.2
  • harbor-exporter:v2.8.2
  • harbor-jobservice:v2.8.2
  • harbor-portal:v2.8.2
  • harbor-registryctl:v2.8.2
  • registry-photon:v2.8.2
  • notary-server-photon:v2.8.2
  • notary-signer-photon:v2.8.2
  • redis-photon:v2.8.2
  • trivy-adapter-photon:v2.8.2

Multus-CNI v4.0.1

新增功能

  • 引入了厚外掛程式部署和架構。請參閱 Multus-CNI v4.0.1 新功能
  • 依如下方式變更預設值:

    namespace: kube-system 
    #! DaemonSet related configuration 
    daemonset: 
      resources: 
        limits: 
          cpu: 100m 
          memory: 50Mi 
        requests: 
          cpu: 100m 
          memory: 50Mi 
    configmap: 
      cniVersion: 0.3.1 
      multusConfigFile: auto 
    

Prometheus v2.43.0

新增功能

元件版本

Prometheus v2.43.0 包含以下元件映像版本:

  • prom/prometheus:v2.43.0
  • prom/alertmanager:v0.25.0
  • prom/pushgateway:v1.5.1
  • jimmidyson/configmap-reload:v0.8.0
  • bitnami/kube-state-metrics:2.8.2
  • quay.io/prometheus/node-exporter:v1.5.0

Velero v1.10.0

新增功能

  • 請參閱 Velero v1.10.0 版本資訊
  • Kopia 取代 Restic 作為上傳程式。這會導致以下重大變更。有關詳細資訊,請參閱 Velero v1.10 changelog 中的重大變更
    • restic daemonset 已重新命名為 node-agent
    • ResticRepository CR 已重新命名為 BackupRepository
    • velero restic repo 命令已重新命名為 velero repo
    • velero-restic-credentials 密碼已重新命名為 velero-repo-credentials
    • default-volumes-to-restic 參數已重新命名為 default-volumes-to-fs-backup
    • restic-timeout 參數已重新命名為 fs-backup-timeout
    • default-restic-prune-frequency 參數已重新命名為 default-repo-maintain-frequency
  • 統一備份存放庫,並將其與資料移轉裝置分離,如統一存放庫與 Kopia 整合設計中所述。
  • 透過將 Kopia 路徑與現有 Restic 路一起新增,並透過 uploader-type 組態參數支援這兩者,對檔案系統備份進行重新引導。
  • BackupItemActionRestoreItemActionVolumeSnapshotterAction 外掛程式移至版本 v1,以便將來對可能不支援向後相容的外掛程式進行變更,例如複雜的資料移轉任務 (例如,資料移轉任務)。請參閱外掛程式版本控制
  • 新增用於儲存特定磁碟區快照位置認證的選項;請參閱備份儲存位置和磁碟區快照位置
  • 透過用於錯誤處理的保護程式碼以及跳過排除檢查的功能增強 CSI 快照的穩定性,以便 CSI 快照可與各種備份資源篩選器配合使用。
  • 支援備份排程暫停/取消暫停:
    • -paused 旗標傳遞到 velero schedule create 以建立暫停的排程。
    • velero schedule pausevelero schedule unpause 暫停和取消暫停現有排程。

支援的版本

TKG 版本 Velero 版本 預期的 Kubernetes 版本相容性 已在 Kubernetes 版本上測試
2.3(Halifax) 1.10 1.18-latest 1.22.5、1.23.8、1.24.6 和 1.25.1

元件版本

Velero v1.10.3 包含以下元件映像版本:

  • velero/velero:v1.10.3
  • velero/velero-plugin-for-aws:v1.6.2
  • velero/velero-plugin-for-csi:v0.4.3
  • velero/velero-plugin-for-microsoft-azure:v1.6.2
  • vsphereveleroplugin/velero-plugin-for-vsphere:v1.5.1

如要修復 CVE,將按如下方式更新 Velero 執行時期和相依性版本:

  • Go runtime v1.18.8
  • 使用 Go 1.18.8 編譯的 Restic v0.13.1,而不是封裝官方 Restic 二進位檔
  • 更新了核心相依程式庫的版本

升級

由於檔案系統備份變更,先前的升級程序將不起作用。有關新的升級步驟,請參閱升級至 Velero 1.10

限制/已知問題

Whereabouts v0.6.1

新增功能

  • 支援 ipRanges 以配置雙堆疊 IP 指派;請參閱 Whereabouts 存放庫 README 檔中的 IPv6 組態範例
check-circle-line exclamation-circle-line close-line
Scroll to top icon