명시된 경우를 제외하고 이러한 Release Notes는 TKG(Tanzu Kubernetes Grid)의 모든 v2.3.x 패치 버전에 적용됩니다.
TKG v2.3은 버전이 지정된 TKG 독립형 관리 클러스터를 배포하는 다운로드 가능한 Tanzu CLI 패키지로 배포됩니다. TKG v2.3은 vSphere, AWS, Azure를 포함한 여러 인프라에서 실행할 수 있는 독립형 관리 클러스터를 사용하여 클래스 기반 워크로드 클러스터를 생성하고 관리할 수 있도록 지원합니다.
중요vSphere 8.0.1c 이상의 vSphere with Tanzu Supervisor는 TKG v2.2를 실행합니다. 이전 버전의 vSphere 8은 Supervisor와 독립적으로 릴리스되지 않은 TKG v2.0을 실행합니다. TKG 2.x를 실행하는 독립형 관리 클러스터는 TKG 2.1부터 사용할 수 있습니다. Supervisor에 내장된 이전 TKG 버전으로 인해 vSphere with Tanzu Supervisor를 사용하여 워크로드 클러스터를 생성하는 경우, 독립형 TKG 2.3 관리 클러스터를 사용하는 경우 사용할 수 있는 기능 중 일부를 사용할 수 없습니다. 이후의 TKG 릴리스는 향후 vSphere 업데이트 릴리스에서 Supervisor에 내장될 예정입니다. 따라서 지정된 시간에 최신 vSphere with Tanzu 버전에 내장된 TKG의 버전이 TKG의 최신 독립형 버전만큼 최신 버전이 아닐 수 있습니다. 그러나 모든 TKG v2.x 릴리스와 호환되는 Tanzu CLI 버전은 모든 vSphere 8 릴리스에서 Supervisor와 함께 사용할 수 있도록 완전히 지원됩니다. 예를 들어 Tanzu CLI v1.0.0은 Supervisor가 제공하는 TKG 2.2 플러그인과 완전히 호환됩니다.
TKG 2.x 및 vSphere 8의 vSphere with Tanzu Supervisor와 호환되는 Tanzu CLI 버전은 vSphere 7의 Supervisor 클러스터와 호환되지 않습니다. vSphere 7의 vSphere with Tanzu Supervisor 클러스터에서 Tanzu CLI를 사용하려면 TKG v1.6의 Tanzu CLI 버전을 사용합니다. Supervisor와 TKG 2.x와 호환되는 Tanzu CLI 버전을 사용하려면 vSphere 8로 업그레이드합니다. vSphere with Tanzu Supervisor 클러스터가 없는 경우 독립형 TKG 2.x 관리 클러스터를 vSphere 7에 배포할 수 있습니다. Tanzu CLI와 VMware 제품 간의 호환성에 대한 자세한 내용은 Tanzu CLI 설명서를 참조하십시오.
Tanzu Kubernetes Grid v2.3.x에는 다음과 같은 새로운 기능이 포함되어 있습니다.
Tanzu Kubernetes Grid v2.3.1의 새로운 기능:
--vsphere-vm-template-name
옵션을 사용하여 대상 OVA 템플릿을 지정할 수 있습니다.Tanzu Kubernetes Grid v2.3.0의 새로운 기능:
tiny
TKr을 추가할 필요가 없습니다.POD_SECURITY_STANDARD_*
및 Cluster
규격 podSecurityStandard
설정으로 구성할 수 있습니다.
kubectl get inclusterippool
은 FREE
및 USED
주소 수를 출력합니다.InClusterIPPool
개체 구조가 이전 TKG 버전과 다릅니다. v2.3으로의 클러스터 업그레이드는 IP 풀을 새 구조로 변환합니다.VSPHERE_MTU
는 vSphere에서 관리 및 워크로드 클러스터 노드의 MTU(최대 전송 단위) 크기를 설정합니다. 클러 클러스터 노드 MTU 구성을 참조하십시오.CONTROL_PLANE_NODE_NAMESERVERS
및 WORKER_NODE_NAMESERVERS
는 지금 안정적인 상태입니다. Ubuntu 또는 Photon 실행되는 노드에 대해 이러한 변수를 설정할 수 있습니다. Windows 지원되지 않습니다. 사용 사례 예는 노드 IPAM을 참조하십시오.--max-unhealthy
및 --machine-deployment
용 새 플래그. 로드 클러스터에 대한 시스템 상태 점검 관리를 참조하십시오.tanzu mc credentials update
옵션 --vsphere-thumbprint
를 사용하면 Tanzu CLI를 사용하여 vSphere 관리 클러스터 및 워크로드 클러스터에 있는 vCenter Server TLS 지문을 업데이트할 수 있습니다. 클러스터 자격 증명 업데이트를 참조하십시오.Pinniped 구성 요소는 더 이상 LDAP ID 제공자에 Dex를 사용하지 않으므로 다음과 같은 구성이 변경됩니다.
LDAP_GROUP_SEARCH_SKIP_ON_REFRESH
LDAP_BIND_DN
및 LDAP_BIND_PASSWORD
가 지금 필요합니다.LDAP_GROUP_SEARCH_NAME_ATTRIBUTE
기본값은 dn
입니다.LDAP_USER_SEARCH_FILTER
및 LDAP_GROUP_SEARCH_FILTER
는 Pinniped에서 사용하는 형식으로 설정해야 합니다.LDAP_USER_SEARCH_USERNAME
, LDAP_USER_SEARCH_EMAIL_ATTRIBUTE
, LDAP_GROUP_SEARCH_GROUP_ATTRIBUTE
.Dex를 제거하면 TKG v2.3으로 업그레이드하기 전에 관리 클러스터의 LDAP 설정을 변경해야 합니다. (LDAP만 해당) LDAP 설정 업데이트를 참조하십시오.
새 구성 변수 및 업데이트된 구성 변수에 대한 자세한 내용은 구성 파일 변수 참조의 ID 제공자 - LDAP를 참조하십시오.
grafana
컨테이너 이미지가 나열되지 않습니다. 다른 Tanzu Standard 구성 요소는 향후 릴리스에서 BoM에서 제거될 예정입니다.
TKG v2.3에서는 Tanzu Standard 패키지 저장소가 TKG와 별도로 버전 관리되고 배포되며 해당 버전 관리가 날짜 스탬프를 기반으로 합니다. 자세한 내용은 아래의 Tanzu Standard 저장소 v2023.7.13을 참조하십시오.
각 TKG v2.3 패치 버전에 호환되는 최신 Tanzu Standard 저장소 버전의 릴리스 정보는 다음과 같습니다.
TKG v2.2부터 TKG 및 TKr의 이전 패치 버전에 대한 VMware 지원 정책이 변경되었으며, TKG에 대한 Kubernetes 버전을 패키지합니다. TKG v2.1 및 이전 버전의 TKG에 대한 지원 정책은 변경되지 않습니다.
아래의 첫 두 섹션에는 현재 지원되는 모든 TKG 및 TKr 버전에 대한 지원이 각각에 적용되는 지원 정책에 따라 요약되어 있습니다.
아래의 세 번째 섹션에는 Kubernetes v1.26, v1.25, v1.24 TKr에서 지원하는 Tanzu Standard 저장소의 패키지 버전이 나열되어 있습니다.
알려진 문제에 언급된 곳을 제외하고, 각 버전의 Tanzu Kubernetes Grid 관리 클러스터의 Kubernetes 버전과 Tanzu Kubernetes 릴리스(TKr)로 배포되는 추가 Kubernetes 버전에 대한 지원을 추가합니다.
부 버전: VMware 릴리스 시 Kubernetes v1.26, v1.25 및 v1.24에서 TKG v2.3을 지원합니다. TKG v2.1이 일반 지원 종료 이정표에 도달하면 VMware 더 이상 TKG가 있는 Kubernetes v1.24를 지원하지 않습니다. TKG v2.2가 일반 지원 종료 이정표에 도달하면 VMware 더 이상 TKG가 있는 Kubernetes v1.25를 지원하지 않습니다.
패치 버전: VMware는 마이너 줄에 새 TKr 패치 버전을 게시한 후 2개월 동안 이전 패치 버전에 대한 지원을 유지합니다. 이를 통해 고객은 2개월 동안 새 TKr 패치 버전으로 업그레이드할 수 있습니다. TKG v2.2부터 VMware는 이전 부 버전의 Kubernetes에서 모든 TKr 패치 버전을 지원하지 않습니다.
Tanzu Kubernetes Grid 패치 버전은 아래 나열된 TKr 패치 버전을 지원하거나 지원했습니다.
Tanzu Kubernetes Grid 버전 | 관리 클러스터 Kubernetes 버전 | 제공된 Kubernetes(TKr) 버전 |
---|---|---|
2.3.1 | 1.26.8 | 1.26.8, 1.25.13, 1.24.17 |
2.3.0 | 1.26.5 | 1.26.5, 1.25.10, 1.24.14 |
2.2.0 | 1.25.7 | 1.25.7, 1.24.11, 1.23.17 |
2.1.1 | 1.24.10 | 1.24.10, 1.23.16, 1.22.17 |
2.1.0 | 1.24.9 | 1.24.9, 1.23.15, 1.22.17 |
VMware는 다음과 같이 TKG 버전을 지원합니다.
부 버전: VMware는 TKG의 최신 및 이전 두 부 버전에 적용되는 N-2 수명 주기 정책에 따라 TKG를 지원합니다. 자세한 내용은 VMware 제품 수명 주기 매트릭스를 참조하십시오.
패치 버전: VMware는 이전 TKG 패치 버전을 모두 지원하지 않습니다. VMware는 TKG의 새 패치 버전을 릴리스한 후 2개월 동안 이전 패치 버전에 대한 지원을 유지합니다. 이를 통해 고객은 2개월 동안 새 TKG 패치 버전으로 업그레이드할 수 있습니다.
TKG v2.3의 경우 Tanzu Standard 저장소의 패키지 버전은 다음과 같이 Kubernetes 부 버전 v1.26, v1.25, v1.24용 TKr과 호환됩니다.
패키지 | 패키지 버전 | Kubernetes v1.26 TKr | Kubernetes v1.25 TKr | Kubernetes v1.24 TKr |
---|---|---|---|---|
인증서 관리자 cert-manager.tanzu.vmware.com |
1.11.1+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ |
Contour contour.tanzu.vmware.com |
1.24.4+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ |
외부 DNS external-dns.tanzu.vmware.com |
0.13.4+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
0.12.2+vmware.5-tkg.2-20230629 | ✔ | ✔ | ✔ | |
0.11.1+vmware.5-tkg.2-20230629 | ✖ | ✖ | ✔ | |
Fluent Bit fluent-bit.tanzu.vmware.com |
2.1.2+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ |
1.9.5+vmware.1-tkg.3-zshippable | ✔ | ✔ | ✔ | |
1.8.15+vmware.1-tkg.1 | ✖ | ✖ | ✔ | |
FluxCD 도움말 컨트롤러 fluxcd-helm-controller.tanzu.vmware.com |
0.32.0+vmware.1-tkg.2-20230629 | ✔ | ✔ | ✔ |
0.21.0+vmware.1-tkg.1-zshippable | ✖ | ✖ | ✔ | |
FluxCD 소스 컨트롤러 fluxcd-source-controller.tanzu.vmware.com |
0.33.0+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
Grafana grafana.tanzu.vmware.com |
9.5.1+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
7.5.17+vmware.1-tkg.3-zshippable | ✖ | ✖ | ✔ | |
Harbor harbor.tanzu.vmware.com |
2.8.2+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
Multus CNI multus-cni.tanzu.vmware.com |
3.8.0+vmware.3-tkg.1 | ✔ | ✔ | ✔ |
4.0.1+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ | |
Prometheus prometheus.tanzu.vmware.com |
2.43.0+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
2.37.0+vmware.3-tkg.1 | ✔ | ✔ | ✔ | |
2.36.2+vmware.1-tkg.1 | ✖ | ✖ | ✔ | |
Whereabouts whereabouts.tanzu.vmware.com |
0.6.1+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
0.5.4+vmware.2-tkg.1 | ✔ | ✔ | ✔ |
Tanzu Kubernetes Grid v2.3은 클러스터 생성 및 관리, 네트워킹, 스토리지, 인증, 백업 및 마이그레이션, 관찰 가능성 구성 요소뿐만 아니라 다음과 같은 인프라 플랫폼 및 OS(운영 체제)를 지원합니다.
TKG v2.3과 호환되는 추가 패키지 버전은 Tanzu 패키지 설명서의 Tanzu Standard 저장소 v2023.10.16 릴리스 정보를 참조하십시오.
TKG v2.3에 포함된 구성 요소 버전의 전체 목록은 Component 버전을 참조하십시오.
vSphere | AWS | Azure | |
인프라 플랫폼 |
|
네이티브 AWS | 네이티브 Azure |
Tanzu CLI | Tanzu CLI Core v1.0.0** | ||
TKG API, 패키지 인프라 | Tanzu Framework v0.30.2 | ||
클러스터 생성 및 관리 | 코어 클러스터 API(v1.4.5), 클러스터 API 제공자 vSphere(v1.7.1) | 코어 클러스터 API(v1.4.5), 클러스터 API 제공자 AWS(v2.1.3) | 코어 클러스터 API(v1.4.5), 클러스터 API 제공자 Azure(v1.9.2) |
TKG와 함께 배포되는 Kubernetes 노드 OS | Photon OS 3, Ubuntu 20.04 | Amazon Linux 2, Ubuntu 20.04 | Ubuntu 18.04, Ubuntu 20.04 |
자체 이미지 구축 | Photon OS 3, Red Hat Enterprise Linux 7*** 및 8, Ubuntu 18.04, Ubuntu 20.04, Windows 2019 | Amazon Linux 2, Ubuntu 18.04, Ubuntu 20.04 | Ubuntu 18.04, Ubuntu 20.04 |
컨테이너 런타임 | Containerd(v1.6.18) | ||
컨테이너 네트워킹 | Antrea(v1.11.2), Calico(v3.25.1), Multus CNI(v4.0.1, v3.8.0) | ||
컨테이너 레지스트리 | Harbor(v2.8.4) | ||
수신 | NSX Advanced Load Balancer Essentials 및 Avi Controller **** (v21.1.4-v21.1.6, v22.1.2-v22.1.3), NSX v4.1.0(vSphere 8.0.u1), v3.2.2(vSphere 7), Contour(v1.25.2) | Contour(v1.25.2) | Contour(v1.25.2) |
스토리지 | vSphere 컨테이너 스토리지 인터페이스(v3.0.1*****) 및 vSphere 클라우드 네이티브 스토리지 | Amazon EBS CSI 드라이버(v1.18.0) 및 트리 내 클라우드 제공자 | Azure 디스크 CSI 드라이버(v1.27.1), Azure 파일 CSI 드라이버(v1.27.0), 트리 내 클라우드 제공자 |
인증 | Pinniped를 통한 OIDC 및 LDAP(v0.24.0) | ||
관찰 가능성 | Fluent Bit(v2.1.6), Prometheus(v2.45.0, v2.37.0)******, Grafana(v10.0.1) | ||
서비스 검색 | 외부 DNS(v0.13.4) | ||
백업 및 마이그레이션 | Velero(v1.10.3) |
* 릴리스와 호환되는 VMware Cloud on AWS SDDC 버전 목록은 VMware 제품 상호 운용성 매트릭스를 참조하십시오.
** 이 릴리스와 호환되는 Tanzu CLI 버전의 전체 목록은 제품 상호 운용성 매트릭스를 참조하십시오.
Tanzu Kubernetes Grid v1.6은 Red Hat Enterprise Linux 7 이미지 구축을 지원하는 마지막 릴리스입니다.
**** TKG 독립형 관리 클러스터 및 해당 워크로드 클러스터에서 NSX Advanced Load Balancer를 사용하려면 NSX ALB v22.1.2 이상이 필요합니다.
***** vsphere_csi_driver 버전입니다. 이 릴리스에 포함된 vSphere Container Storage Interface 구성 요소의 전체 목록은 Component 버전을 참조하십시오.
****** 클러스터를 Kubernetes v1.25로 업그레이드하는 경우 Prometheus를 적어도 버전 2.37.0+vmware.3-tkg.1
로 업그레이드해야 합니다. 이전 버전의 Prometheus 패키지(예: 버전 2.37.0+vmware.1-tkg.1
)는 Kubernetes 1.25와 호환되지 않습니다.
Tanzu Kubernetes Grid v2.3과 함께 제공되는 Kubernetes 버전의 전체 목록은 위의 지원되는 Kubernetes 버전을 참조하십시오.
TKG v2.3.x 릴리스에는 다음과 같은 소프트웨어 구성 요소 버전이 포함되어 있습니다.
참고이전 TKG 릴리스에는 이제 Tanzu Standard 저장소를 통해 배포되는 구성 요소가 포함되어 있습니다. 이러한 구성 요소 목록은 아래 Tanzu Standard 저장소를 참조하십시오.
구성 요소 | TKG v2.3.1 | TKG v2.3.0 |
---|---|---|
aad-pod-identity | v1.8.15+vmware.2 | v1.8.15+vmware.2* |
addons-manager | v2.2+vmware.1 | v2.2+vmware.1* |
ako-operator | v1.9.0_vmware.1 | v1.9.0_vmware.1* |
alertmanager | v0.25.0_vmware.4* | v0.25.0_vmware.3* |
antrea | v1.11.2_vmware.1* | v1.11.1_vmware.4* |
antrea-interworking | v0.11.1* | v0.11.0* |
aws-ebs-csi-driver | v1.18.0+vmware.2 | v1.18.0+vmware.2* |
azuredisk-csi-driver | v1.27.1+vmware.3* | v1.27.1+vmware.2* |
azurefile-csi-driver | v1.27.0+vmware.3* | v1.27.0+vmware.2* |
calico | v3.25.1+vmware.2 | v3.25.1+vmware.2* |
capabilities-package | v0.30.2-capabilities* | v0.30.2-capabilities* |
carvel-secretgen-controller | v0.14.2+vmware.2 | v0.14.2+vmware.2* |
cloud-provider-azure | v1.1.26+vmware.1, v1.23.23+vmware.1, v1.24.10+vmware.1 |
v1.1.26+vmware.1, v1.23.23+vmware.1, v1.24.10+vmware.1 |
cloud_provider_vsphere | v1.24.6+vmware.1, |
v1.24.6+vmware.1*, |
cluster-api-provider-azure | v1.9.2+vmware.1 | v1.9.2+vmware.1* |
cluster_api | v1.4.5+vmware.1* | v1.4.2+vmware.3* |
cluster_api_aws | v2.1.3+vmware.0 | v2.1.3+vmware.0* |
cluster_api_vsphere | v1.7.1+vmware.0* | v1.7.0+vmware.0* |
cni_plugins | v1.1.1+vmware.28* | v1.1.1+vmware.23* |
configmap-reload | v0.8.0+vmware.3* | v0.8.0+vmware.2* |
containerd | v1.6.18+vmware.1 | v1.6.18+vmware.1 |
coredns | v1.9.3+vmware.16* | v1.9.3+vmware.11* |
crash-diagnostics | v0.3.7+vmware.7 | v0.3.7+vmware.7* |
cri_tools | v1.25.0+vmware.10* | v1.25.0+vmware.6* |
csi_attacher | v4.2.0+vmware.4*, v4.0.0+vmware.1, v3.5.0+vmware.1, v3.4.0+vmware.1, v3.3.0+vmware.1 |
v4.2.0+vmware.2*, v4.0.0+vmware.1*, v3.5.0+vmware.1, v3.4.0+vmware.1, v3.3.0+vmware.1 |
csi_livenessprobe | v2.9.0+vmware.4*, v2.8.0+vmware.1, v2.7.0+vmware.1, v2.6.0+vmware.1, v2.5.0+vmware.1, v2.4.0+vmware.1 |
v2.9.0+vmware.2*, v2.8.0+vmware.1*, v2.7.0+vmware.1, v2.6.0+vmware.1, v2.5.0+vmware.1, v2.4.0+vmware.1 |
csi_node_driver_registrar | v2.7.0+vmware.4*, v2.7.0+vmware.2, v2.6.3+vmware.1, v2.6.2+vmware.1, v2.5.1+vmware.1, v2.5.0+vmware.1, v2.3.0+vmware.1 |
v2.7.0+vmware.1*, v2.7.0+vmware.2*, v2.6.3+vmware.1*, v2.6.2+vmware.1*, v2.5.1+vmware.1, v2.5.0+vmware.1, v2.3.0+vmware.1 |
csi_provisioner | v3.4.1+vmware.3*, v3.4.0+vmware.4*, v3.3.0+vmware.1, v3.2.1+vmware.1, v3.1.0+vmware.2 |
v3.4.1+vmware.2*, v3.4.0+vmware.2*, v3.3.0+vmware.1*, v3.2.1+vmware.1, v3.1.0+vmware.2 |
dex | 없음 | 제거됨 |
envoy | v1.25.9+vmware.1* | v1.25.6+vmware.1* |
external-snapshotter | v6.2.1+vmware.4*, v6.1.0+vmware.1, v6.0.1+vmware.1, v5.0.1+vmware.1 |
v6.2.1+vmware.2*, v6.1.0+vmware.1*, v6.0.1+vmware.1, v5.0.1+vmware.1 |
etcd | v3.5.6+vmware.20* | v3.5.6+vmware.14* |
guest-cluster-auth-service | v1.3.0_tkg.2 | v1.3.0_tkg.2 |
image-builder | v0.1.14+vmware.1 | v0.1.14+vmware.1* |
image-builder-resource-bundle | v1.26.8+vmware.1-tkg.2* | v1.26.5+vmware.2-tkg.1* |
imgpkg | v0.36.0+vmware.2 | v0.36.0+vmware.2* |
jetstack_cert-manager (cert-manager) | v1.11.1+vmware.1 | v1.11.1+vmware.1* |
k8s-sidecar | v1.22.4+vmware.2* | v1.22.0+vmware.2*, v1.15.6+vmware.5, v1.12.1+vmware.6 |
k14s_kapp (kapp) | v0.55.0+vmware.2 | v0.55.0+vmware.2* |
k14s_ytt (ytt) | v0.45.0+vmware.2 | v0.45.0+vmware.2* |
kapp-controller | v0.45.2+vmware.1 | v0.45.2+vmware.1* |
kbld | v0.37.0+vmware.2 | v0.37.0+vmware.2* |
kube-state-metrics | v2.8.2+vmware.1 | v2.8.2+vmware.1* |
kube-vip | v0.5.12+vmware.1 | v0.5.12+vmware.1 |
kube-vip-cloud-provider | v0.0.5+vmware.1, v0.0.4+vmware.4 |
v0.0.5+vmware.1*, v0.0.4+vmware.4 |
kubernetes | v1.26.8+vmware.1*, v1.25.13+vmware.1*, v1.24.17+vmware.1* |
v1.26.5+vmware.2*, v1.25.10+vmware.2*, v1.24.14+vmware.2 |
kubernetes-csi_external-resizer | v1.7.0+vmware.4*, v1.6.0+vmware.1, v1.5.0+vmware.1, v1.4.0+vmware.1 |
v1.7.0+vmware.2*, v1.6.0+vmware.1*, v1.5.0+vmware.1*, v1.4.0+vmware.1 |
kubernetes-sigs_kind | v1.26.8+vmware.1-tkg.2_v0.17.0*, v1.25.13+vmware.2-tkg.1_v0.17.0*, v1.24.17+vmware.2-tkg.1_v0.17.0* |
v1.26.5+vmware.2-tkg.1_v0.17.0*, v1.25.10+vmware.2-tkg.1_v0.17.0*, v1.24.14+vmware.2-tkg.1_v0.17.0* |
kubernetes_autoscaler | v1.26.2+vmware.1 | v1.26.2+vmware.1* |
load-balancer-and-ingress-service (AKO) | v1.9.3+vmware.2-tkg.1 | v1.9.3+vmware.2-tkg.1* |
metrics-server | v0.6.2+vmware.1 | v0.6.2+vmware.1 |
pinniped | v0.24.0+vmware.1-tkg.1 | v0.24.0+vmware.1-tkg.1* |
pinniped-post-deploy | v0.24.0+vmware.1 | v0.24.0+vmware.1* |
prometheus_node_exporter | v1.5.0+vmware.3* | v1.5.0+vmware.2* |
pushgateway | v1.5.1+vmware.3* | v1.5.1+vmware.2* |
sonobuoy | v0.56.16+vmware.2 | v0.56.16+vmware.2* |
tanzu-framework | v0.30.2* | v0.30.2* |
tanzu-framework-addons | v0.30.2* | v0.30.2* |
tanzu-framework-management-packages | v0.30.2* | v0.30.2* |
tkg-bom | v2.3.1* | v2.3.0* |
tkg-core-packages | v1.26.8+vmware.1-tkg.2* | v1.26.8+vmware.2-tkg.1* |
tkg-standard-packages | v2023.10.16* | v2023.7.13* |
tkg-storageclass-package | v0.30.2* | v0.30.2* |
tkg_telemetry | v2.3.1+vmware.3* | v2.3.0+vmware.2* |
velero | v1.10.3+vmware.1 | v1.10.3+vmware.1* |
velero-mgmt-cluster-plugin* | v0.2.0+vmware.1 | v0.2.0+vmware.1* |
velero-plugin-for-aws | v1.6.2+vmware.1 | v1.6.2+vmware.1* |
velero-plugin-for-csi | v0.4.3+vmware.1 | v0.4.3+vmware.1* |
velero-plugin-for-microsoft-azure | v1.6.2+vmware.1 | v1.6.2+vmware.1* |
velero-plugin-for-vsphere | v1.5.1+vmware.1 | v1.5.1+vmware.1* |
vendir | v0.33.1+vmware.2 | v0.33.1+vmware.2* |
vsphere_csi_driver | v3.0.1+vmware.4* | v3.0.1+vmware.2* |
* 이전 릴리스 이후의 새 구성 요소 또는 버전 범프를 나타냅니다. TKG v2.3.0은 v2.3.1 이전이고 TKG v2.2.0은 v2.3.0 이전입니다.
TKG v2.3과 함께 제공되는 소프트웨어 구성 요소 버전의 목록을 보려면 imgpkg
를 사용하여 저장소 번들을 끌어온 다음 해당 컨텐츠를 나열합니다. 예를 들어 TKG v2.3.1용 Tanzu Standard 저장소와 함께 제공된 구성 요소 버전을 나열하려면 다음 명령을 실행합니다.
imgpkg pull -b projects.registry.vmware.com/tkg/packages/standard/repo:v2023.10.16 -o standard-2023.10.16
다음과 같은 로컬 BOM 파일도 패키지 버전을 나열하지만 최신이 아닐 수 있습니다.
~/.config/tanzu/tkg/bom/tkg-bom-v2.3.1.yaml
~/.config/tanzu/tkg/bom/tkr-bom-v1.26.8+vmware.2-tkg.1.yaml
TKG 업그레이드 경로에서 v2.3은 v2.2.0을 즉시 따릅니다.
v2.2.x에서만 Tanzu Kubernetes Grid v2.3.x로 업그레이드할 수 있습니다. v2.2.x 이전 버전에서 Tanzu Kubernetes Grid v2.3.x로 업그레이드하려면 먼저 v2.2.x로 업그레이드해야 합니다.
워크로드 클러스터에서 Kubernetes 버전을 업그레이드하는 경우 부 버전을 건너뛸 수 없습니다. 예를 들어 Tanzu Kubernetes 클러스터를 v1.24.x에서 v1.26.x로 직접 업그레이드할 수 없습니다. 클러스터를 v1.26.x로 업그레이드하기 전에 v1.24.x 클러스터를 v1.25.x로 업그레이드해야 합니다.
Tanzu Kubernetes Grid v2.3 릴리스 날짜는 다음과 같습니다.
Tanzu Kubernetes Grid v2.3에는 최신 이전 릴리스인 v2.2.0과 비교하여 다음과 같은 새로운 동작이 도입되었습니다.
Pinniped를 통한 ID 및 액세스 관리에 IDP(OIDC ID 제공자)를 사용하는 경우 새로 고침 토큰을 실행하도록 OIDC IDP를 구성해야 합니다.
OIDC_IDENTITY_PROVIDER_SCOPES
및 OIDC_IDENTITY_PROVIDER_ADDITIONAL_AUTHORIZE_PARAMS
를 필요한 범위 또는 매개 변수로 구성합니다.LDAPIdentityProvider
사용자 지정 리소스의 구성 설정에 해당합니다. LDAP ID 제공자를 사용하여 v2.3을 Tanzu Kubernetes Grid 관리 클러스터를 업그레이드하기 전에 (LDAP만 해당) LDAP 설정 업데이트에 설명된 대로 LDAP 설정을 업데이트합니다. 관리 클러스터를 v2.3으로 업그레이드하는 동안 모든 기존 LDAP 설정이 새 Pinniped 형식으로 자동으로 마이그레이션됩니다.tanzu mc permissions aws set
을 실행해야 합니다. 자세한 내용은 클러스트 업그레이드 준비에서 AWS 탭을 참조하십시오.ConfigMap
개체를 생성해야 합니다. Multiple Kubernetes 버전 페이지에서 Kubernetes 클러스터 배포를 참조하십시오.이 섹션에서는 TKG v2.3 릴리스 후 향후 릴리스에 적용될 동작 변경 사항에 대한 사전 알림을 제공합니다.
tanzu login
명령은 향후 TKG 릴리스에서 제거될 예정입니다. 이 명령은 tanzu context
명령으로 대체됩니다. 자세한 내용은 VMware Tanzu CLI 설명서의 tanzu context를 참조하십시오.
TKG 2.3 독립형 관리 클러스터 배포 및 관리에는 vSphere with Tanzu Supervisor에서 TKG를 사용하는 것과 관련이 없는 독립형 관리 클러스터와 관련된 항목이 포함되어 있습니다.
자세한 내용은 VMware Tanzu Kubernetes Grid 설명서 페이지에서 배포에 적합한 TKG 설명서 정의를 참조하십시오.
Tanzu Kubernetes Grid v2.3.1은 문서화되지 않은 고객 문제와 버그를 해결합니다.
이전 Tanzu Kubernetes Grid 릴리스의 알려진 문제로 기록된 다음 문제는 Tanzu Kubernetes Grid v2.3에서 해결되었습니다.
IPv6 네트워킹은 vSphere 8에서 지원되지 않습니다.
TKG v2.3은 vSphere 8에서 IPv6 네트워킹을 지원하지 않지만 IPv6 네트워킹에 설명된 대로 vSphere 7에서 Kube-Vip를 사용하는 단일 스택 IPv6 네트워킹을 지원합니다.
클러스터 Autoscaler가 필요한 키를 MachineDeployment에 추가하지 않음
클러스터 autoscaler를 사용하도록 설정한 클러스터를 생성하는 경우 예상 키 cluster.x-k8s.io/cluster-api-autoscaler-node-group-max-size
및 cluster.x-k8s.io/cluster-api-autoscaler-node-group-min-size
는 MachineDeployment
metadata.annotations
에 추가되지 않습니다.
ClusterClass 구성에서 Worker 노드 롤아웃 변수가 누락됨
워크로드 클러스터 MachineDeployments
에 대한 롤아웃 전략을 설정하는 데 사용하는 WORKER_ROLLOUT_STRATEGY
변수가 모든 대상 플랫폼의 ClusterClass 구성에서 누락되었습니다. 이제 클래스 기반 클러스터와 레거시 계획 기반 클러스터에 WORKER_ROLLOUT_STRATEGY
변수를 설정할 수 있습니다. 자세한 내용은 구성 파일 변수 참조의 GPU 지원 클러스터를 참조하십시오.
AWS의 워크로드 클러스터 노드 풀은 독립형 관리 클러스터와 동일한 가용성 영역에 있어야 합니다.
관리 클러스터가 있는 위치와 다른 az
구성된 노드 풀을 생성할 때 새 노드 풀이 tanzu cluster node-pool list
에 나열된 대로 ScalingUp
상태로 멈춰 있고 Ready
상태에 도달하지 않을 수 있습니다.
독립형 관리 클러스터를 다시 생성해도 Pinniped 인증이 복원되지 않음
관리 및 워크로드 클러스터 인프라 백업 및 복원 관리(기술 미리보기)에 설명된 대로 독립형 관리 클러스터를 다시 생성한 후에는 Pinniped 인증을 통해 워크로드 클러스터에 로그인할 수 없습니다.
실행 ID가 10000000+를 초과하면 Harbor CVE 내보내기가 실패할 수 있음
TKG v2.2용으로 패키지된 버전인 Harbor v2.7.1에는 실행 기본 키 자동 증분 ID가 10000000+로 증가할 때 CVE가 "404 페이지를 찾을 수 없음" 오류와 함께 내보내기를 보고하는 알 수 없는 문제가 있었습니다.
tanzu package available get
의 --default-values-file-output
옵션이 불완전한 Harbor 패키지용 구성 템플릿 파일을 출력
tanzu package available get harbor.tanzu.vmware.com/PACKAGE-VERSION --default-values-file-output FILE-PATH
가 실행되면 Harbor 패키지용 구성 템플릿 파일이 생성됩니다.
클래스 기반 클러스터의 자동조정기에는 수동 주석이 필요합니다.
클러스터 API 레이블 전파 문제로 인해 클래스 기반 워크로드 클러스터용 클러스터 구성 파일의 AUTOSCALER_MIN_SIZE_*
및 AUTOSCALER_MAX_SIZE_*
설정이 클러스터의 MachineDeployment
개체에 설정되지 않아서 수동으로 추가해야 합니다.
클래스 기반 클러스터 이름에는 로드 밸런서 서비스 또는 수신 컨트롤러로 NSX ALB가 있는 25자로 제한
NSX ALB(Advanced Load Balancer)가 독립 실행형 관리 클러스터가 있는 클래스 기반 클러스터의 로드 밸런서 서비스 또는 수신 컨트롤러로 사용되는 경우, 애플리케이션 이름에는 클러스터 이름과 AKO 패키지의 내부 이름과 load-balancer-and-ingress-service
가 모두 포함됩니다. 결합된 이름이 Avi Controller 애플리케이션에 대한 64자 제한을 초과하면 tanzu cluster create
명령이 avi-system
네임스페이스를 찾을 수 없습니다.
해결 방법: NSX ALB를 로드 밸런서 또는 수신 컨트롤러로 사용하는 경우 클래스 기반 클러스터 이름 길이를 25자 이하로 제한합니다.
다음은 Tanzu Kubernetes Grid v2.3.x의 알려진 문제입니다. 후속 v2.3.x 패치 릴리스에서 해결된 v2.3.0에 있었던 모든 알려진 문제는 수정된 패치 릴리스의 해결된 문제에 있습니다.
관리 클러스터 문제 해결 및 워크로드 클러스터 문제 해결 또는 VMware 기술 자료 문서에서 자주 발생하는 문제에 대한 추가 솔루션을 찾을 수 있습니다.
tanzu package repository add
를 실행하여 tanzu-standard
저장소를 vSphere의 단일 노드 클러스터에 설명된 유형의 단일 노드 클러스터에 추가하지 못할 수 있습니다.
이 문제는 단일 노드 클러스터가 cert-manager
를 코어 추가 기능으로 부팅하여 tanzu-standard
저장소의 다른 cert-manager
와 충돌하기 때문에 발생합니다.
해결 방법: tanzu-standard
저장소를 추가하기 전에 cert-manager 설치에 설명된 대로 cert-manager
패키지 주석을 패치합니다.
AWS 및 Azure에서 개체 규격을 사용하여 워크로드 클러스터 생성이 영역/지역 오류로 인해 실패함
기본적으로 AWS 또는 Azure에서는 클래스 기반 클러스터 개체 규격이 --file
로 전달된 tanzu cluster create
를 실행하면 Tanzu CLI가 vSphere 가용성 영역과만 관련된 지역과 영역을 확인합니다.
해결 방법 AWS 또는 Azure에서 클래스 기반 클러스터를 생성할 때 클래스 기반 클러스터 생성에 설명된 1단계 또는 2단계 프로세스를 사용하는지 여부에 따라 다음 중 하나를 수행합니다.
1단계: 설명된 대로 1단계 프로세스에 따라 features.cluster.auto-apply-generated-clusterclass-based-configuration
을 true
로 설정하고, --dry-run
을 tanzu cluster create
로 전달하지 않습니다.
2단계: 개체 규격을 두 번째 단계로 사용하여 tanzu cluster create
를 실행하기 전에 로컬 환경에서 SKIP_MULTI_AZ_VERIFY
를 true
로 설정합니다.
export SKIP_MULTI_AZ_VERIFY=true
용량이 제한된 클러스터를 사용할 때 구성 요소가 스케줄링되지 못함
관리 클러스터 및 워크로드 클러스터의 경우 단일 제어부 노드, 단일 Worker 노드 또는 중소형 클러스터를 사용하여 클러스터를 배포하면 리소스 스케줄링 경합이 발생할 수 있습니다.
해결 방법: 단일 노드 클러스터 또는 총 3개 이상의 노드가 있는 클러스터를 사용합니다.
Antrea CNI를 사용하여 현재가 아닌 TKr 버전을 기준으로 하는 새 워크로드 클러스터를 생성할 수 없음
Antrea CNI를 사용하고 이전 버전 TKG와 함께 제공된 Kubernetes 버전(예: Kubernetes v1.23.10)을 실행하는 새 워크로드 클러스터를 생성할 수 없습니다. 이는 Tanzu Kubernetes Grid v2.2에서 지원되는 Kubernetes 버전에 있는 TKG v1.6.1의 기본 Kubernetes 버전입니다.
해결 방법: Kubernetes 1.26.8, 1.25.13 또는 1.24.17을 실행하는 워크로드 클러스터를 생성합니다. Kubernetes 프로젝트는 현재 부 버전의 최신 패치 버전에서 구성 요소를 실행할 것을 권장합니다.
관리 클러스터에서 tanzu cluster scale
을 실행하고 짝수를 --controlplane-machine-count
옵션에 전달하는 경우 TKG는 제어부 노드의 크기를 조정하지 않으며 CLI가 오류를 출력하지 않습니다. 쿼럼을 유지하려면 제어부 노드 수가 항상 홀수여야 합니다.
해결 방법 제어부 노드 수를 짝수로 조정하지 마십시오.
참고v4.0 이상의 경우 VMware NSX-T Data Center 이름이 "VMware NSX"로 변경됩니다.
TKG v2.3에서 관리 클러스터 구성 변수 AVI_DISABLE_INGRESS_CLASS
, AVI_DISABLE_STATIC_ROUTE_SYNC
AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER
가 작동하지 않습니다.
기본 속성을 기본값이 아닌 값 true
로 설정하려면 관리 클러스터가 생성된 후 아래에 설명된 대로 관리 클러스터의 두 AKODeploymentConfig
구성 개체를 수동으로 편집해야 합니다.
해결 방법: 관리 클러스터에서 install-ako-for-all
및 install-ako-for-management-cluster
개체를 편집합니다.
kubectl
컨텍스트를 관리 클러스터로 설정합니다.
kubectl config use-context MGMT-CLUSTER-CONTEXT
install-ako-for-all
및 install-ako-for-management-cluster
구성을 편집합니다.
kubectl edit adc install-ako-for-all
kubectl edit adc install-ako-for-management-cluster
구성에서 다음 속성을 원하는 대로 설정합니다.
extraConfigs.ingress.disableIngressClass
- for config var AVI_DISABLE_INGRESS_CLASS
extraConfigs.disableStaticRouteSync
- for config var AVI_DISABLE_STATIC_ROUTE_SYNC
extraConfigs.ingress.defaultIngressController
- for config var AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER
저장 후 종료합니다.
이러한 설정은 관리 클러스터가 이후에 생성하는 워크로드 클러스터에 적용됩니다.
NSX ALB NodePortLocal
수신 모드는 관리 클러스터에서 지원되지 않습니다.
TKG v2.3에서는 관리 클러스터로의 트래픽에 대해 수신 모드 NodePortLocal
을 사용하여 ALB(NSX Advanced Load Balancer)를 서비스 유형으로 실행할 수 없습니다.
이 문제는 NodePortLocal 모드의 L7 수신에 설명된 대로 워크로드 클러스터에 대한 NodePortLocal
수신 지원에는 영향을 주지 않습니다.
해결 방법: NodePort
또는 ClusterIP
로 설정된 AVI_INGRESS_SERVICE_TYPE
으로 관리 클러스터를 구성합니다. 기본값은 NodePort
입니다.
이전 NSX-T 버전 및 Photon 3 또는 Linux 커널 5.8 VM이 있는 Ubuntu에서 관리 클러스터 생성이 실패하거나 성능이 느려짐
다음 인프라 및 구성을 사용하여 관리 클러스터를 배포하면 실패하거나 포드 간 트래픽이 제한됨:
이 조합은 이전 버전의 NSX-T Antrea CNI 간에 체크섬 문제를 노출합니다.
TMC: 관리 클러스터가 TMC(Tanzu Mission Control)에 등록된 경우 이 문제에 대한 해결 방법은 없습니다. 그렇지 않으면 아래의 해결 방법을 참조하십시오.
해결 방법:
ANTREA_DISABLE_UDP_TUNNEL_OFFLOAD
가 "true"
로 설정된 상태로 워크로드 클러스터를 배포합니다. 이 설정은 Antrea의 UDP 체크섬 오프로딩을 비활성화하여 일부 언더레이 네트워크 및 물리적 NIC 네트워크 드라이버의 알려진 문제를 방지합니다.워크로드 클러스터가 여러 데이터스토어에 스토리지를 분산할 수 없음
데이터스토어 클러스터를 사용하는 클러스터 배포에 설명된 대로 워크로드 클러스터가 여러 데이터스토어에 스토리지를 분산하도록 설정할 수 없습니다. 워크로드 클러스터의 스토리지 정책의 기반으로 데이터스토어 클러스터의 여러 데이터스토어에 태그를 지정하는 경우 워크로드 클러스터는 데이터스토어 중 하나만 사용합니다.
해결 방법: 없음
HTTP/HTTPS 프록시 암호에는 영숫자가 아닌 문자를 사용할 수 없습니다.
CLI를 사용하여 관리 클러스터를 배포할 때 영숫자가 아닌 문자 # ` ^ | / ? % ^ { [ ] } \ " < >
는 암호에서 사용할 수 없습니다. 또한 UI를 사용하여 관리 클러스터를 배포할 때는 HTTP/HTTPS 프록시 암호에서 영숫자가 아닌 문자를 사용할 수 없습니다.
해결 방법: CLI와 함께 관리 클러스터를 배포할 경우 # ` ^ | / ? % ^ { [ ] } \ " < >
를 제외한 비-영숫자를 사용할 수 있습니다.
ARM 프로세서가 있는 macOS 시스템에서 TANZU CLI가 작동하지 않음
Tanzu CLI v0.11.6은 Finder > 이 Mac 정보(About This Mac) > 개요(Overview)에서 식별된 대로 ARM(Apple M1) 칩이 탑재된 macOS 시스템에서 작동하지 않습니다.
해결 방법: Linux 또는 Windows OS가 있는 부트스트랩 시스템 또는 Intel 프로세서가 탑재된 macOS 시스템을 사용합니다.
Tanzu CLI에 tanzu management-cluster osimage 표시
management-cluster
명령 그룹은 tanzu management-cluster osimage
를 표시합니다. 이 기능은 현재 개발 중이며 향후 사용할 수 있습니다.
해결 방법: tanzu management-cluster osimage
를 사용하지 마십시오.
클러스터 제어부를 사용할 수 있게 되기를 기다리는 동안 관리 클러스터를 vSphere 7로 배포하지 못함
관리 클러스터를 vSphere 7에 배포할 때 VM 네트워크를 지정하면 배포가 실패하고 unable to set up management cluster: unable to wait for cluster control plane available: control plane is not available yet
오류가 발생합니다.
해결 방법: 그런 다음 네트워크 "VM 네트워크"에는 VsVip
및 ServiceEngine
의 정적 IP가 있는 여러 개의 서브넷이 구성되어 있습니다. 검색된 서브넷을 무시하고 가상 서비스를 서비스 엔진에 배치하도록 허용하려면 VM 네트워크에서 exclude_discovered_subnets
을 True로 설정합니다.
가용성 영역은 VM이 할당된 동안 삭제할 수 있습니다.
VM이 포함된 가용성 영역을 삭제하면 이후에 VM을 삭제할 수 없습니다.
해결 방법: VM을 삭제하기 전에 가용성 영역에서 모든 VM을 제거합니다.
VPXD 세션 소진으로 인해 워크로드 클러스터 생성이 실패함
vSphere 워크로드 클러스터를 생성할 때 생성이 실패하고 다음 오류가 발생합니다.
vSphere config validation failed: failed to get VC client: failed to create vc client: Post "https://address/sdk": EOF ". VCenter vpxd.log report error: Out of HTTP sessions: Limited to 2000
이 문제는 vCenter Server 세션 소진으로 인해 발생합니다.
해결 방법: VMware KB 50114010을 참조하십시오.
small
노드로 생성된 노드 풀이 Provisioning
에서 멈출 수 있음
small
로 구성된 노드 SIZE
로 생성된 노드 풀이 Provisioning
상태에서 중단되고 Running
으로 진행하지 않을 수 있습니다.
해결 방법: 최소 medium
크기의 노드로 노드 풀을 구성합니다.
Windows 작업자가 인터넷 제한 환경에서 지원되지 않음
VMware는 프록시 또는 에어갭 환경에서 Windows Worker 노드가 있는 TKG 워크로드 클러스터를 지원하지 않습니다.
해결 방법: VMware 담당자에게 문의하십시오. 일부 TKG 사용자는 Windows 사용자 지정 이미지를 구축하고 오프라인 환경에서 Windows 작업자와 함께 워크로드 클러스터를 실행합니다(예: 이 비공식 저장소에 설명된 대로).
Kubernetes Image Builder를 실행하여 사용자 지정 Linux 사용자 지정 시스템 이미지를 생성하면 goss
테스트 python-netifaces
, python-requests
, ebtables
에 실패합니다. 명령 출력이 실패를 보고합니다. 오류는 무시해도 됩니다. 성공적인 이미지 빌드를 방지하지는 않습니다.
VSPHERE CSI 볼륨 삭제가 AVS에서 실패할 수 있음
AVS(Azure vSphere Solution)에서 vSphere CSI PV(영구 볼륨) 삭제가 실패할 수 있습니다. PV를 삭제하려면 cns.searchable 권한이 필요합니다. AVS의 기본 관리자 계정인 [email protected]이 사용 권한으로 생성되지 않습니다. 자세한 내용은 vSphere 역할 및 권한을 참조하십시오.
해결 방법: AVS에서 vSphere CSI PV를 삭제하려면 Azure 지원에 문의하십시오.
TKG v2.3에서는 Tanzu Standard 패키지 저장소가 TKG와 별도로 버전 관리되고 배포되며 해당 버전 관리가 날짜 스탬프를 기반으로 합니다.
TKG v2.3.0 및 v2.3.1의 경우 TKG 패치 버전과 호환되는 최신 Tanzu Standard 저장소 버전이 같은 날짜에 릴리스됩니다.
향후 Tanzu Standard 저장소 버전은 TKG 버전보다 더 자주 게시될 수 있지만 모든 패치 버전은 부 버전의 TKG와 Tanzu Standard 간에 기존 호환성을 유지합니다.
각 TKG v2.3 패치 버전에 대해 호환되는 최신 Tanzu Standard 저장소 버전은 다음과 같습니다.
VMware는 VMware Tanzu Standard 저장소에 제공되는 선택적 패키지에 대해 다음과 같이 지원합니다.
vmware_cert-manager
패키지에는 업스트림 jetstack_cert-manager
의 acmesolver
구성 요소가 포함되어 있습니다.TKG 버전 | jetstack_cert-manager 버전 | vmware cert-manager 패키지 버전 | Kubernetes 버전 호환성 |
2.3 | v1.11.1 | v1.11.1+vmware.1 | 1.21-1.27 |
cert manager v1.11.1에는 다음과 같은 구성 요소 이미지 버전이 포함되어 있습니다.
다음 인증서 관리자 버전은 TKG v2.3에서 더 이상 사용되지 않습니다.
envoy:
workload:
type: Deployment
replicas: 3
다음과 같은 데이터 값을 사용하여 Contour 및 Envoy 워크로드 내의 각 컨테이너에 대한 리소스 요청 또는 제한을 지정할 수 있습니다.
contour:
resources:
contour:
requests:
cpu: 250m
memory: 128Mi
limits:
cpu: 1
memory: 512Mi
envoy:
resources:
envoy:
# include requests and limits as desired
shutdown-manager:
# include requests and limits as desired
data-values
파일 구성 값이 확인됩니다. 데이터 값에 지원되지 않는 값을 지정하면 오류가 발생합니다.Contour v1.24.4는 Kubernetes v1.24-v1.26에서 지원됩니다. Contour 호환성 매트릭스를 참조하십시오.
data-values
파일은 더 이상 null
값을 허용하지 않습니다. 값이 null
로 설정된 구성 필드의 경우 값을 완전히 생략해야 합니다.external-csi-snapshot-webhook
v6.1.0을 명시적으로 설치해야 합니다.TKG 버전 | external-csi-snapshot-webhook 버전 |
예상 Kubernetes 버전 호환성 | Kubernetes 버전에서 테스트됨 |
2.3.0 | 6.1.0 | 1.18 - 최신 | 1.24 |
external-csi-snapshot-webhook에는 다음과 같은 구성 요소 이미지 버전이 포함되어 있습니다.
createNamespace
구성 필드. true
로 설정하여 external-dns
구성 요소가 설치된 네임스페이스를 생성합니다. false로 설정하면 패키지 구성 요소가 기존 네임스페이스에 설치됩니다.다음 Fluxcd 컨트롤러 패키지 릴리스 정보를 참조하십시오.
Grafana v9.5.1에는 다음과 같은 구성 요소 이미지 버전이 포함되어 있습니다.
Harbor v2.8.2에는 다음과 같은 구성 요소 이미지 버전이 포함되어 있습니다.
다음과 같이 기본값을 변경합니다.
namespace: kube-system
#! DaemonSet related configuration
daemonset:
resources:
limits:
cpu: 100m
memory: 50Mi
requests:
cpu: 100m
memory: 50Mi
configmap:
cniVersion: 0.3.1
multusConfigFile: auto
Prometheus v2.43.0에는 다음과 같은 구성 요소 이미지 버전이 포함되어 있습니다.
restic daemonset
의 이름이 node-agent
로 변경됨ResticRepository
CR 이름이 BackupRepository
로 변경됨velero restic repo
명령 이름이 velero repo
로 변경됨velero-restic-credentials
암호 이름이 velero-repo-credentials
로 변경됨default-volumes-to-restic
매개 변수 이름이 default-volumes-to-fs-backup
으로 변경됨restic-timeout
매개 변수 이름이 fs-backup-timeout
으로 변경됨default-restic-prune-frequency
매개 변수 이름이 default-repo-maintain-frequency
으로 변경됨uploader-type
구성 매개 변수를 통해 둘 다 지원합니다.
BackupItemAction
, RestoreItemAction
, VolumeSnapshotterAction
플러그인을 버전 v1로 이동하여 복잡한 데이터 이동 작업과 같은 이전 버전 호환성을 지원하지 않을 수 있는 향후 플러그인 변경을 허용합니다. 플러그인 버전 관리를 참조하십시오.-paused
플래그를 velero schedule create
에 전달하여 일시 중지된 스케줄을 생성합니다.velero schedule pause
및 velero schedule unpause
는 기존 스케줄을 일시 중지 및 일시 중지 해제합니다.TKG 버전 | Velero 버전 | 예상 Kubernetes 버전 호환성 | Kubernetes 버전에서 테스트됨 |
2.3(Halifax) | 1.10 | 1.18-최신 | 1.22.5, 1.23.8, 1.24.6, 1.25.1 |
Velero v1.10.3에는 다음과 같은 구성 요소 이미지 버전이 포함되어 있습니다.
CVE를 수정하기 위해 Velero 런타임 및 종속성 버전은 다음과 같이 업데이트됩니다.
파일 시스템 백업 변경으로 인해 이전 업그레이드 절차가 작동하지 않습니다. 새 업그레이드 단계는 Velero 1.10으로 업그레이드를 참조하십시오.
ipRanges
를 지원합니다. Whereabouts repo README의 예시 IPv6 구성을 참조하십시오.