VMware Tanzu Kubernetes Grid v2.3 Release Notes

명시된 경우를 제외하고 이러한 Release Notes는 TKG(Tanzu Kubernetes Grid)의 모든 v2.3.x 패치 버전에 적용됩니다.

TKG v2.3은 버전이 지정된 TKG 독립형 관리 클러스터를 배포하는 다운로드 가능한 Tanzu CLI 패키지로 배포됩니다. TKG v2.3은 vSphere, AWS, Azure를 포함한 여러 인프라에서 실행할 수 있는 독립형 관리 클러스터를 사용하여 클래스 기반 워크로드 클러스터를 생성하고 관리할 수 있도록 지원합니다.

vSphere 8에서 Tanzu Kubernetes Grid v2.x 및 vSphere with Tanzu Supervisor

중요

vSphere 8.0.1c 이상의 vSphere with Tanzu Supervisor는 TKG v2.2를 실행합니다. 이전 버전의 vSphere 8은 Supervisor와 독립적으로 릴리스되지 않은 TKG v2.0을 실행합니다. TKG 2.x를 실행하는 독립형 관리 클러스터는 TKG 2.1부터 사용할 수 있습니다. Supervisor에 내장된 이전 TKG 버전으로 인해 vSphere with Tanzu Supervisor를 사용하여 워크로드 클러스터를 생성하는 경우, 독립형 TKG 2.3 관리 클러스터를 사용하는 경우 사용할 수 있는 기능 중 일부를 사용할 수 없습니다. 이후의 TKG 릴리스는 향후 vSphere 업데이트 릴리스에서 Supervisor에 내장될 예정입니다. 따라서 지정된 시간에 최신 vSphere with Tanzu 버전에 내장된 TKG의 버전이 TKG의 최신 독립형 버전만큼 최신 버전이 아닐 수 있습니다. 그러나 모든 TKG v2.x 릴리스와 호환되는 Tanzu CLI 버전은 모든 vSphere 8 릴리스에서 Supervisor와 함께 사용할 수 있도록 완전히 지원됩니다. 예를 들어 Tanzu CLI v1.0.0은 Supervisor가 제공하는 TKG 2.2 플러그인과 완전히 호환됩니다.

vSphere 7에서 CLI 및 vSphere with Tanzu

TKG 2.x 및 vSphere 8의 vSphere with Tanzu Supervisor와 호환되는 Tanzu CLI 버전은 vSphere 7의 Supervisor 클러스터와 호환되지 않습니다. vSphere 7의 vSphere with Tanzu Supervisor 클러스터에서 Tanzu CLI를 사용하려면 TKG v1.6의 Tanzu CLI 버전을 사용합니다. Supervisor와 TKG 2.x와 호환되는 Tanzu CLI 버전을 사용하려면 vSphere 8로 업그레이드합니다. vSphere with Tanzu Supervisor 클러스터가 없는 경우 독립형 TKG 2.x 관리 클러스터를 vSphere 7에 배포할 수 있습니다. Tanzu CLI와 VMware 제품 간의 호환성에 대한 자세한 내용은 Tanzu CLI 설명서를 참조하십시오.

새로운 기능

Tanzu Kubernetes Grid v2.3.x에는 다음과 같은 새로운 기능이 포함되어 있습니다.

Tanzu Kubernetes Grid v2.3.1

Tanzu Kubernetes Grid v2.3.1의 새로운 기능:

Tanzu Kubernetes Grid v2.3.0

Tanzu Kubernetes Grid v2.3.0의 새로운 기능:

  • Tanzu Kubernetes Grid 독립형 Tanzu CLI 플러그인을 포함하여 독립형 Tanzu CLI 플러그인에 대한 새로운 배포 메커니즘입니다. 또한 Tanzu Core CLI는 이제 Tanzu Kubernetes Grid 별도로 배포됩니다. Tanzu Kubernetes Grid 사용할 Tanzu CLI를 설치하는 방법에 대한 지침은 독립형 관리 클러스터에서 사용할 Tanzu CLI 및 Kubernetes CLI 설치를 참조하십시오.
  • Tanzu Standard 패키지 저장소는 TKG와 별도로 버전이 지정되고 배포됩니다. 아래의 Tanzu Standard 저장소 v2023.7.13을 참조하십시오.
    • TKG v2.3.0의 호환되는 최신 Tanzu Standard 저장소 버전은 Tanzu Standard 저장소 v2023.7.13입니다.
  • 여러 AZ(가용성 영역)에서 워크로드 및 독립형 관리 클러스터를 실행하고 해당 노드가 실행되는 AZ를 변경할 수 있습니다.
    • 여러 AZ에 새 워크로드 클러스터를 배포하고 기존 관리 및 워크로드 클러스터를 여러 또는 다른 AZ에서 실행하도록 변경하는 방법에 대한 자세한 내용은 여러 가용성 영역에서 클러스터 실행을 참조하십시오.
    • 설치 관리자 인터페이스를 사용하여 여러 AZ에서 실행되도록 새 독립형 관리 클러스터를 구성하려면 vSphere 리소스 구성을 참조하십시오.
    • 여러 AZ에 대한 지원은 안정적인 기능 상태입니다.
  • 단일 노드 클러스터는 업그레이드할 수 있으며 TCA(Telco Cloud Automation)에 대해 지원됩니다. vSphere에서 단일 노드 클러스터를 참조하십시오.
    • 간소화된 배포 절차에서는 관리 클러스터에 tiny TKr을 추가할 필요가 없습니다.
    • TMC(Tanzu Mission Control)를 사용하여 단일 노드 클러스터를 생성하고 관리할 수는 없지만 이 기능은 향후 TMC 릴리스를 위해 계획되어 있습니다.
  • 포드 보안 승인 컨트롤러에 설명된 대로 클러스터 전반의 포드 보안 승인(PSA) 컨트롤러를 새로운 클러스터 구성 파일 변수 POD_SECURITY_STANDARD_*Cluster 규격 podSecurityStandard 설정으로 구성할 수 있습니다.
  • (vSphere) 클러스터 내 IPAM(IP 주소 관리) 기능이 확장되었습니다. 노드 IPAM을 참조하십시오.
    • 클래스 기반 워크로드 클러스터 외에 독립형 관리 클러스터용 IPAM입니다.
    • IPv66 지원.
    • 서로 다른 관리 네임스페이스의 워크로드 클러스터는 동일한 글로벌 IP 풀의 IP 주소를 할당할 수 있습니다.
    • IP 풀에는 인접하지 않은 IP 범위가 포함될 수 있습니다.
    • IP 풀 쿼리 kubectl get inclusterippoolFREEUSED 주소 수를 출력합니다.
    • 구성 파일 변수 참조의 노드 IPAM에 설명된 대로 클러스터 구성 변수.
    • InClusterIPPool 개체 구조가 이전 TKG 버전과 다릅니다. v2.3으로의 클러스터 업그레이드는 IP 풀을 새 구조로 변환합니다.
  • Calico CNI를 사용하는 클러스터는 IP 주소 감지를 수행합니다. 포드 및 컨테이너 네트워킹의 Calico CNI를 참조하십시오.
  • 격리된 스토리지가 있는 Edge 워크로드 클러스터는 로컬에 저장된 자체 VM 템플릿을 사용할 수 있습니다. 로컬 VM 템플릿 지정을 참조하십시오.
  • 새 클러스터 구성 파일 변수 VSPHERE_MTU는 vSphere에서 관리 및 워크로드 클러스터 노드의 MTU(최대 전송 단위) 크기를 설정합니다. 클러 클러스터 노드 MTU 구성을 참조하십시오.
  • 개체 규격에 주석을 지정하고 TKr을 생성하거나 수정하지 않고 대체 시스템 이미지를 사용하도록 클러스터를 구성할 수 있습니다. 대체 시스템 이미지 사용을 참조하십시오.
  • (vSphere) CONTROL_PLANE_NODE_NAMESERVERSWORKER_NODE_NAMESERVERS는 지금 안정적인 상태입니다. Ubuntu 또는 Photon 실행되는 노드에 대해 이러한 변수를 설정할 수 있습니다. Windows 지원되지 않습니다. 사용 사례 예는 노드 IPAM을 참조하십시오.
  • 이제 이전 릴리스의 사용자 지정 ClusterClass 정의에서 생성한 클러스터를 업그레이드할 수 있습니다. 자세한 내용은 사용자 지정 클러스터 업그레이드를 참조하십시오.
  • 시스템 상태 점검, --max-unhealthy--machine-deployment용 새 플래그. 로드 클러스터에 대한 시스템 상태 점검 관리를 참조하십시오.
  • tanzu mc credentials update 옵션 --vsphere-thumbprint를 사용하면 Tanzu CLI를 사용하여 vSphere 관리 클러스터 및 워크로드 클러스터에 있는 vCenter Server TLS 지문을 업데이트할 수 있습니다. 클러스터 자격 증명 업데이트를 참조하십시오.
  • 새로 생성된 계획 기반 클러스터에는 기본적으로 Tanzu Standard 패키지 저장소가 추가되지 않습니다.
  • Pinniped 구성 요소는 더 이상 LDAP ID 제공자에 Dex를 사용하지 않으므로 다음과 같은 구성이 변경됩니다.

    • 새 구성 변수: LDAP_GROUP_SEARCH_SKIP_ON_REFRESH
    • 업데이트된 구성 변수:
    • LDAP_BIND_DNLDAP_BIND_PASSWORD가 지금 필요합니다.
    • LDAP_GROUP_SEARCH_NAME_ATTRIBUTE 기본값은 dn입니다.
    • LDAP_USER_SEARCH_FILTERLDAP_GROUP_SEARCH_FILTER는 Pinniped에서 사용하는 형식으로 설정해야 합니다.
    • 제거된 구성 변수: LDAP_USER_SEARCH_USERNAME, LDAP_USER_SEARCH_EMAIL_ATTRIBUTE, LDAP_GROUP_SEARCH_GROUP_ATTRIBUTE.

    Dex를 제거하면 TKG v2.3으로 업그레이드하기 전에 관리 클러스터의 LDAP 설정을 변경해야 합니다. (LDAP만 해당) LDAP 설정 업데이트를 참조하십시오.
    새 구성 변수 및 업데이트된 구성 변수에 대한 자세한 내용은 구성 파일 변수 참조의 ID 제공자 - LDAP를 참조하십시오.

  • Tanzu Standard 패키지 저장소는 TKG와 별도로 배포되므로 TKG BoM 파일에 더 이상 grafana 컨테이너 이미지가 나열되지 않습니다. 다른 Tanzu Standard 구성 요소는 향후 릴리스에서 BoM에서 제거될 예정입니다.

Tanzu Standard 저장소

TKG v2.3에서는 Tanzu Standard 패키지 저장소가 TKG와 별도로 버전 관리되고 배포되며 해당 버전 관리가 날짜 스탬프를 기반으로 합니다. 자세한 내용은 아래의 Tanzu Standard 저장소 v2023.7.13을 참조하십시오.

각 TKG v2.3 패치 버전에 호환되는 최신 Tanzu Standard 저장소 버전의 릴리스 정보는 다음과 같습니다.

지원되는 Kubernetes, TKG, 패키지 버전

TKG v2.2부터 TKG 및 TKr의 이전 패치 버전에 대한 VMware 지원 정책이 변경되었으며, TKG에 대한 Kubernetes 버전을 패키지합니다. TKG v2.1 및 이전 버전의 TKG에 대한 지원 정책은 변경되지 않습니다.

아래의 첫 두 섹션에는 현재 지원되는 모든 TKG 및 TKr 버전에 대한 지원이 각각에 적용되는 지원 정책에 따라 요약되어 있습니다.

아래의 세 번째 섹션에는 Kubernetes v1.26, v1.25, v1.24 TKr에서 지원하는 Tanzu Standard 저장소의 패키지 버전이 나열되어 있습니다.

지원되는 Kubernetes 버전

알려진 문제에 언급된 곳을 제외하고, 각 버전의 Tanzu Kubernetes Grid 관리 클러스터의 Kubernetes 버전과 Tanzu Kubernetes 릴리스(TKr)로 배포되는 추가 Kubernetes 버전에 대한 지원을 추가합니다.

부 버전: VMware 릴리스 시 Kubernetes v1.26, v1.25 및 v1.24에서 TKG v2.3을 지원합니다. TKG v2.1이 일반 지원 종료 이정표에 도달하면 VMware 더 이상 TKG가 있는 Kubernetes v1.24를 지원하지 않습니다. TKG v2.2가 일반 지원 종료 이정표에 도달하면 VMware 더 이상 TKG가 있는 Kubernetes v1.25를 지원하지 않습니다.

패치 버전: VMware는 마이너 줄에 새 TKr 패치 버전을 게시한 후 2개월 동안 이전 패치 버전에 대한 지원을 유지합니다. 이를 통해 고객은 2개월 동안 새 TKr 패치 버전으로 업그레이드할 수 있습니다. TKG v2.2부터 VMware는 이전 부 버전의 Kubernetes에서 모든 TKr 패치 버전을 지원하지 않습니다.

Tanzu Kubernetes Grid 패치 버전은 아래 나열된 TKr 패치 버전을 지원하거나 지원했습니다.

Tanzu Kubernetes Grid 버전 관리 클러스터 Kubernetes 버전 제공된 Kubernetes(TKr) 버전
2.3.1 1.26.8 1.26.8, 1.25.13, 1.24.17
2.3.0 1.26.5 1.26.5, 1.25.10, 1.24.14
2.2.0 1.25.7 1.25.7, 1.24.11, 1.23.17
2.1.1 1.24.10 1.24.10, 1.23.16, 1.22.17
2.1.0 1.24.9 1.24.9, 1.23.15, 1.22.17

지원되는 Tanzu Kubernetes Grid 버전

VMware는 다음과 같이 TKG 버전을 지원합니다.

부 버전: VMware는 TKG의 최신 및 이전 두 부 버전에 적용되는 N-2 수명 주기 정책에 따라 TKG를 지원합니다. 자세한 내용은 VMware 제품 수명 주기 매트릭스를 참조하십시오.

패치 버전: VMware는 이전 TKG 패치 버전을 모두 지원하지 않습니다. VMware는 TKG의 새 패치 버전을 릴리스한 후 2개월 동안 이전 패치 버전에 대한 지원을 유지합니다. 이를 통해 고객은 2개월 동안 새 TKG 패치 버전으로 업그레이드할 수 있습니다.

  • 예를 들어 TKG v2.3.0에 대한 지원은 TKG v2.3.1의 일반 가용성 이후 2개월 후에 종료됩니다.

지원되는 패키지 버전

TKG v2.3의 경우 Tanzu Standard 저장소의 패키지 버전은 다음과 같이 Kubernetes 부 버전 v1.26, v1.25, v1.24용 TKr과 호환됩니다.

패키지 패키지 버전 Kubernetes v1.26 TKr Kubernetes v1.25 TKr Kubernetes v1.24 TKr
인증서 관리자
cert-manager.tanzu.vmware.com
1.11.1+vmware.1-tkg.1-20230629
Contour
contour.tanzu.vmware.com
1.24.4+vmware.1-tkg.1-20230629
외부 DNS
external-dns.tanzu.vmware.com
0.13.4+vmware.2-tkg.1-20230629
0.12.2+vmware.5-tkg.2-20230629
0.11.1+vmware.5-tkg.2-20230629
Fluent Bit
fluent-bit.tanzu.vmware.com
2.1.2+vmware.1-tkg.1-20230629
1.9.5+vmware.1-tkg.3-zshippable
1.8.15+vmware.1-tkg.1
FluxCD 도움말 컨트롤러
fluxcd-helm-controller.tanzu.vmware.com
0.32.0+vmware.1-tkg.2-20230629
0.21.0+vmware.1-tkg.1-zshippable
FluxCD 소스 컨트롤러
fluxcd-source-controller.tanzu.vmware.com
0.33.0+vmware.2-tkg.1-20230629
Grafana
grafana.tanzu.vmware.com
9.5.1+vmware.2-tkg.1-20230629
7.5.17+vmware.1-tkg.3-zshippable
Harbor
harbor.tanzu.vmware.com
2.8.2+vmware.2-tkg.1-20230629
Multus CNI
multus-cni.tanzu.vmware.com
3.8.0+vmware.3-tkg.1
4.0.1+vmware.1-tkg.1-20230629
Prometheus
prometheus.tanzu.vmware.com
2.43.0+vmware.2-tkg.1-20230629
2.37.0+vmware.3-tkg.1
2.36.2+vmware.1-tkg.1
Whereabouts
whereabouts.tanzu.vmware.com
0.6.1+vmware.2-tkg.1-20230629
0.5.4+vmware.2-tkg.1

Tanzu Kubernetes Grid v2.3의 제품 스냅샷

Tanzu Kubernetes Grid v2.3은 클러스터 생성 및 관리, 네트워킹, 스토리지, 인증, 백업 및 마이그레이션, 관찰 가능성 구성 요소뿐만 아니라 다음과 같은 인프라 플랫폼 및 OS(운영 체제)를 지원합니다.

TKG v2.3과 호환되는 추가 패키지 버전은 Tanzu 패키지 설명서의 Tanzu Standard 저장소 v2023.10.16 릴리스 정보를 참조하십시오.

TKG v2.3에 포함된 구성 요소 버전의 전체 목록은 Component 버전을 참조하십시오.

vSphere AWS Azure
인프라 플랫폼
  • vSphere 7.0, 7.0U1-U3
  • vSphere 8.0, 8.0U1
  • VMware Cloud on AWS* v1.20, v1.22
  • Azure VMware Solution v2.0
네이티브 AWS 네이티브 Azure
Tanzu CLI Tanzu CLI Core v1.0.0**
TKG API, 패키지 인프라 Tanzu Framework v0.30.2
클러스터 생성 및 관리 코어 클러스터 API(v1.4.5), 클러스터 API 제공자 vSphere(v1.7.1) 코어 클러스터 API(v1.4.5), 클러스터 API 제공자 AWS(v2.1.3) 코어 클러스터 API(v1.4.5), 클러스터 API 제공자 Azure(v1.9.2)
TKG와 함께 배포되는 Kubernetes 노드 OS Photon OS 3, Ubuntu 20.04 Amazon Linux 2, Ubuntu 20.04 Ubuntu 18.04, Ubuntu 20.04
자체 이미지 구축 Photon OS 3, Red Hat Enterprise Linux 7*** 및 8, Ubuntu 18.04, Ubuntu 20.04, Windows 2019 Amazon Linux 2, Ubuntu 18.04, Ubuntu 20.04 Ubuntu 18.04, Ubuntu 20.04
컨테이너 런타임 Containerd(v1.6.18)
컨테이너 네트워킹 Antrea(v1.11.2), Calico(v3.25.1), Multus CNI(v4.0.1, v3.8.0)
컨테이너 레지스트리 Harbor(v2.8.4)
수신 NSX Advanced Load Balancer Essentials 및 Avi Controller **** (v21.1.4-v21.1.6, v22.1.2-v22.1.3), NSX v4.1.0(vSphere 8.0.u1), v3.2.2(vSphere 7), Contour(v1.25.2) Contour(v1.25.2) Contour(v1.25.2)
스토리지 vSphere 컨테이너 스토리지 인터페이스(v3.0.1*****) 및 vSphere 클라우드 네이티브 스토리지 Amazon EBS CSI 드라이버(v1.18.0) 및 트리 내 클라우드 제공자 Azure 디스크 CSI 드라이버(v1.27.1), Azure 파일 CSI 드라이버(v1.27.0), 트리 내 클라우드 제공자
인증 Pinniped를 통한 OIDC 및 LDAP(v0.24.0)
관찰 가능성 Fluent Bit(v2.1.6), Prometheus(v2.45.0, v2.37.0)******, Grafana(v10.0.1)
서비스 검색 외부 DNS(v0.13.4)
백업 및 마이그레이션 Velero(v1.10.3)

* 릴리스와 호환되는 VMware Cloud on AWS SDDC 버전 목록은 VMware 제품 상호 운용성 매트릭스를 참조하십시오.

** 이 릴리스와 호환되는 Tanzu CLI 버전의 전체 목록은 제품 상호 운용성 매트릭스를 참조하십시오.

Tanzu Kubernetes Grid v1.6은 Red Hat Enterprise Linux 7 이미지 구축을 지원하는 마지막 릴리스입니다.

**** TKG 독립형 관리 클러스터 및 해당 워크로드 클러스터에서 NSX Advanced Load Balancer를 사용하려면 NSX ALB v22.1.2 이상이 필요합니다.

***** vsphere_csi_driver 버전입니다. 이 릴리스에 포함된 vSphere Container Storage Interface 구성 요소의 전체 목록은 Component 버전을 참조하십시오.

****** 클러스터를 Kubernetes v1.25로 업그레이드하는 경우 Prometheus를 적어도 버전 2.37.0+vmware.3-tkg.1로 업그레이드해야 합니다. 이전 버전의 Prometheus 패키지(예: 버전 2.37.0+vmware.1-tkg.1)는 Kubernetes 1.25와 호환되지 않습니다.

Tanzu Kubernetes Grid v2.3과 함께 제공되는 Kubernetes 버전의 전체 목록은 위의 지원되는 Kubernetes 버전을 참조하십시오.

구성 요소 버전

TKG v2.3.x 릴리스에는 다음과 같은 소프트웨어 구성 요소 버전이 포함되어 있습니다.

참고

이전 TKG 릴리스에는 이제 Tanzu Standard 저장소를 통해 배포되는 구성 요소가 포함되어 있습니다. 이러한 구성 요소 목록은 아래 Tanzu Standard 저장소를 참조하십시오.

구성 요소 TKG v2.3.1 TKG v2.3.0
aad-pod-identity v1.8.15+vmware.2 v1.8.15+vmware.2*
addons-manager v2.2+vmware.1 v2.2+vmware.1*
ako-operator v1.9.0_vmware.1 v1.9.0_vmware.1*
alertmanager v0.25.0_vmware.4* v0.25.0_vmware.3*
antrea v1.11.2_vmware.1* v1.11.1_vmware.4*
antrea-interworking v0.11.1* v0.11.0*
aws-ebs-csi-driver v1.18.0+vmware.2 v1.18.0+vmware.2*
azuredisk-csi-driver v1.27.1+vmware.3* v1.27.1+vmware.2*
azurefile-csi-driver v1.27.0+vmware.3* v1.27.0+vmware.2*
calico v3.25.1+vmware.2 v3.25.1+vmware.2*
capabilities-package v0.30.2-capabilities* v0.30.2-capabilities*
carvel-secretgen-controller v0.14.2+vmware.2 v0.14.2+vmware.2*
cloud-provider-azure v1.1.26+vmware.1,
v1.23.23+vmware.1,
v1.24.10+vmware.1
v1.1.26+vmware.1,
v1.23.23+vmware.1,
v1.24.10+vmware.1
cloud_provider_vsphere

v1.24.6+vmware.1,
v1.26.2+vmware.1,
v1.25.3+vmware.1

v1.24.6+vmware.1*,
v1.26.2+vmware.1*,
v1.25.3+vmware.1*

cluster-api-provider-azure v1.9.2+vmware.1 v1.9.2+vmware.1*
cluster_api v1.4.5+vmware.1* v1.4.2+vmware.3*
cluster_api_aws v2.1.3+vmware.0 v2.1.3+vmware.0*
cluster_api_vsphere v1.7.1+vmware.0* v1.7.0+vmware.0*
cni_plugins v1.1.1+vmware.28* v1.1.1+vmware.23*
configmap-reload v0.8.0+vmware.3* v0.8.0+vmware.2*
containerd v1.6.18+vmware.1 v1.6.18+vmware.1
coredns v1.9.3+vmware.16* v1.9.3+vmware.11*
crash-diagnostics v0.3.7+vmware.7 v0.3.7+vmware.7*
cri_tools v1.25.0+vmware.10* v1.25.0+vmware.6*
csi_attacher v4.2.0+vmware.4*,
v4.0.0+vmware.1,
v3.5.0+vmware.1,
v3.4.0+vmware.1,
v3.3.0+vmware.1
v4.2.0+vmware.2*,
v4.0.0+vmware.1*,
v3.5.0+vmware.1,
v3.4.0+vmware.1,
v3.3.0+vmware.1
csi_livenessprobe v2.9.0+vmware.4*,
v2.8.0+vmware.1,
v2.7.0+vmware.1,
v2.6.0+vmware.1,
v2.5.0+vmware.1,
v2.4.0+vmware.1
v2.9.0+vmware.2*,
v2.8.0+vmware.1*,
v2.7.0+vmware.1,
v2.6.0+vmware.1,
v2.5.0+vmware.1,
v2.4.0+vmware.1
csi_node_driver_registrar v2.7.0+vmware.4*,
v2.7.0+vmware.2,
v2.6.3+vmware.1,
v2.6.2+vmware.1,
v2.5.1+vmware.1,
v2.5.0+vmware.1,
v2.3.0+vmware.1
v2.7.0+vmware.1*,
v2.7.0+vmware.2*,
v2.6.3+vmware.1*,
v2.6.2+vmware.1*,
v2.5.1+vmware.1,
v2.5.0+vmware.1,
v2.3.0+vmware.1
csi_provisioner v3.4.1+vmware.3*,
v3.4.0+vmware.4*,
v3.3.0+vmware.1,
v3.2.1+vmware.1,
v3.1.0+vmware.2
v3.4.1+vmware.2*,
v3.4.0+vmware.2*,
v3.3.0+vmware.1*,
v3.2.1+vmware.1,
v3.1.0+vmware.2
dex 없음 제거됨
envoy v1.25.9+vmware.1* v1.25.6+vmware.1*
external-snapshotter v6.2.1+vmware.4*,
v6.1.0+vmware.1,
v6.0.1+vmware.1,
v5.0.1+vmware.1
v6.2.1+vmware.2*,
v6.1.0+vmware.1*,
v6.0.1+vmware.1,
v5.0.1+vmware.1
etcd v3.5.6+vmware.20* v3.5.6+vmware.14*
guest-cluster-auth-service v1.3.0_tkg.2 v1.3.0_tkg.2
image-builder v0.1.14+vmware.1 v0.1.14+vmware.1*
image-builder-resource-bundle v1.26.8+vmware.1-tkg.2* v1.26.5+vmware.2-tkg.1*
imgpkg v0.36.0+vmware.2 v0.36.0+vmware.2*
jetstack_cert-manager (cert-manager) v1.11.1+vmware.1 v1.11.1+vmware.1*
k8s-sidecar v1.22.4+vmware.2* v1.22.0+vmware.2*,
v1.15.6+vmware.5,
v1.12.1+vmware.6
k14s_kapp (kapp) v0.55.0+vmware.2 v0.55.0+vmware.2*
k14s_ytt (ytt) v0.45.0+vmware.2 v0.45.0+vmware.2*
kapp-controller v0.45.2+vmware.1 v0.45.2+vmware.1*
kbld v0.37.0+vmware.2 v0.37.0+vmware.2*
kube-state-metrics v2.8.2+vmware.1 v2.8.2+vmware.1*
kube-vip v0.5.12+vmware.1 v0.5.12+vmware.1
kube-vip-cloud-provider v0.0.5+vmware.1,
v0.0.4+vmware.4
v0.0.5+vmware.1*,
v0.0.4+vmware.4
kubernetes v1.26.8+vmware.1*,
v1.25.13+vmware.1*,
v1.24.17+vmware.1*
v1.26.5+vmware.2*,
v1.25.10+vmware.2*,
v1.24.14+vmware.2
kubernetes-csi_external-resizer v1.7.0+vmware.4*,
v1.6.0+vmware.1,
v1.5.0+vmware.1,
v1.4.0+vmware.1
v1.7.0+vmware.2*,
v1.6.0+vmware.1*,
v1.5.0+vmware.1*,
v1.4.0+vmware.1
kubernetes-sigs_kind v1.26.8+vmware.1-tkg.2_v0.17.0*,
v1.25.13+vmware.2-tkg.1_v0.17.0*,
v1.24.17+vmware.2-tkg.1_v0.17.0*
v1.26.5+vmware.2-tkg.1_v0.17.0*,
v1.25.10+vmware.2-tkg.1_v0.17.0*,
v1.24.14+vmware.2-tkg.1_v0.17.0*
kubernetes_autoscaler v1.26.2+vmware.1 v1.26.2+vmware.1*
load-balancer-and-ingress-service (AKO) v1.9.3+vmware.2-tkg.1 v1.9.3+vmware.2-tkg.1*
metrics-server v0.6.2+vmware.1 v0.6.2+vmware.1
pinniped v0.24.0+vmware.1-tkg.1 v0.24.0+vmware.1-tkg.1*
pinniped-post-deploy v0.24.0+vmware.1 v0.24.0+vmware.1*
prometheus_node_exporter v1.5.0+vmware.3* v1.5.0+vmware.2*
pushgateway v1.5.1+vmware.3* v1.5.1+vmware.2*
sonobuoy v0.56.16+vmware.2 v0.56.16+vmware.2*
tanzu-framework v0.30.2* v0.30.2*
tanzu-framework-addons v0.30.2* v0.30.2*
tanzu-framework-management-packages v0.30.2* v0.30.2*
tkg-bom v2.3.1* v2.3.0*
tkg-core-packages v1.26.8+vmware.1-tkg.2* v1.26.8+vmware.2-tkg.1*
tkg-standard-packages v2023.10.16* v2023.7.13*
tkg-storageclass-package v0.30.2* v0.30.2*
tkg_telemetry v2.3.1+vmware.3* v2.3.0+vmware.2*
velero v1.10.3+vmware.1 v1.10.3+vmware.1*
velero-mgmt-cluster-plugin* v0.2.0+vmware.1 v0.2.0+vmware.1*
velero-plugin-for-aws v1.6.2+vmware.1 v1.6.2+vmware.1*
velero-plugin-for-csi v0.4.3+vmware.1 v0.4.3+vmware.1*
velero-plugin-for-microsoft-azure v1.6.2+vmware.1 v1.6.2+vmware.1*
velero-plugin-for-vsphere v1.5.1+vmware.1 v1.5.1+vmware.1*
vendir v0.33.1+vmware.2 v0.33.1+vmware.2*
vsphere_csi_driver v3.0.1+vmware.4* v3.0.1+vmware.2*

* 이전 릴리스 이후의 새 구성 요소 또는 버전 범프를 나타냅니다. TKG v2.3.0은 v2.3.1 이전이고 TKG v2.2.0은 v2.3.0 이전입니다.

TKG v2.3과 함께 제공되는 소프트웨어 구성 요소 버전의 목록을 보려면 imgpkg를 사용하여 저장소 번들을 끌어온 다음 해당 컨텐츠를 나열합니다. 예를 들어 TKG v2.3.1용 Tanzu Standard 저장소와 함께 제공된 구성 요소 버전을 나열하려면 다음 명령을 실행합니다.

imgpkg pull -b projects.registry.vmware.com/tkg/packages/standard/repo:v2023.10.16 -o standard-2023.10.16

다음과 같은 로컬 BOM 파일도 패키지 버전을 나열하지만 최신이 아닐 수 있습니다.

  • ~/.config/tanzu/tkg/bom/tkg-bom-v2.3.1.yaml
  • ~/.config/tanzu/tkg/bom/tkr-bom-v1.26.8+vmware.2-tkg.1.yaml

지원되는 업그레이드 경로

TKG 업그레이드 경로에서 v2.3은 v2.2.0을 즉시 따릅니다.

v2.2.x에서만 Tanzu Kubernetes Grid v2.3.x로 업그레이드할 수 있습니다. v2.2.x 이전 버전에서 Tanzu Kubernetes Grid v2.3.x로 업그레이드하려면 먼저 v2.2.x로 업그레이드해야 합니다.

워크로드 클러스터에서 Kubernetes 버전을 업그레이드하는 경우 부 버전을 건너뛸 수 없습니다. 예를 들어 Tanzu Kubernetes 클러스터를 v1.24.x에서 v1.26.x로 직접 업그레이드할 수 없습니다. 클러스터를 v1.26.x로 업그레이드하기 전에 v1.24.x 클러스터를 v1.25.x로 업그레이드해야 합니다.

릴리스 날짜

Tanzu Kubernetes Grid v2.3 릴리스 날짜는 다음과 같습니다.

  • v2.3.1: 2023년 11월 9일
  • v2.3.0: 2023년 8월 1일

Tanzu Kubernetes Grid v2.3의 동작 변경

Tanzu Kubernetes Grid v2.3에는 최신 이전 릴리스인 v2.2.0과 비교하여 다음과 같은 새로운 동작이 도입되었습니다.

  • Carvel 도구는 전용 다운로드 번들에 제공됩니다. 자세한 내용은 Carvel 도구 설치를 참조하십시오.
  • Pinniped를 통한 ID 및 액세스 관리에 IDP(OIDC ID 제공자)를 사용하는 경우 새로 고침 토큰을 실행하도록 OIDC IDP를 구성해야 합니다.

    • 이 경우 OIDC IDP에서 몇 가지 추가 구성이 필요할 수 있습니다.
    • Okta 예는 구성 ID 관리를 참조하십시오.
    • 새로 고침 토큰을 반환하기 위해 OIDC IDP에 추가 범위 또는 매개 변수가 필요한 경우 OIDC_IDENTITY_PROVIDER_SCOPESOIDC_IDENTITY_PROVIDER_ADDITIONAL_AUTHORIZE_PARAMS를 필요한 범위 또는 매개 변수로 구성합니다.
  • Tanzu Kubernetes Grid는 더 이상 LDAP ID 제공자에 Dex를 사용하지 않습니다. 구성 파일 변수 참조의 ID 제공자 - LDAP 섹션에 있는 각 구성 변수는 이제 Pinniped LDAPIdentityProvider 사용자 지정 리소스의 구성 설정에 해당합니다. LDAP ID 제공자를 사용하여 v2.3을 Tanzu Kubernetes Grid 관리 클러스터를 업그레이드하기 전에 (LDAP만 해당) LDAP 설정 업데이트에 설명된 대로 LDAP 설정을 업데이트합니다. 관리 클러스터를 v2.3으로 업그레이드하는 동안 모든 기존 LDAP 설정이 새 Pinniped 형식으로 자동으로 마이그레이션됩니다.
  • Velero v1.10에는 이전 버전의 TKG와 함께 제공된 Velero 버전에 비해 긴급 변경이 도입되었습니다. Velero v1.9.x에서 v1.10으로 업그레이드할 때 이러한 변경 사항을 완화하는 방법에 대한 자세한 내용은 Velero 업그레이드를 참조하십시오.
  • Tanzu Kubernetes Grid v2.3 on AWS로 업그레이드하는 동안 Tanzu CLI를 업그레이드한 후 관리 클러스터를 업그레이드하기 전에 tanzu mc permissions aws set을 실행해야 합니다. 자세한 내용은 클러스트 업그레이드 준비에서 AWS 탭을 참조하십시오.
  • 사용자 지정 ClusterClass 개체 정의를 생성할 때 Tanzu Framework 저장소에서 기본 매니페스트를 더 이상 다운로드하지 않습니다. 기본 매니페스트는 관리 클러스터를 생성하거나 Tanzu CLI를 설치하거나 TKG 이미지 저장소에서 가져올 때 사용할 수 있습니다. 자세한 내용은 사용자 지정 ClusterClass 생성을 참조하십시오.
  • 부 버전에 지원되는 최신 패치보다 오래된 Kubernetes 패치 버전을 사용하여 워크로드 클러스터를 배포하는 경우 클러스터를 배포하기 전에 해당 TKr에 대해 ConfigMap 개체를 생성해야 합니다. Multiple Kubernetes 버전 페이지에서 Kubernetes 클러스터 배포를 참조하십시오.

향후 동작 변경 알림

이 섹션에서는 TKG v2.3 릴리스 후 향후 릴리스에 적용될 동작 변경 사항에 대한 사전 알림을 제공합니다.

사용 중단 알림

tanzu login 명령은 향후 TKG 릴리스에서 제거될 예정입니다. 이 명령은 tanzu context 명령으로 대체됩니다. 자세한 내용은 VMware Tanzu CLI 설명서의 tanzu context를 참조하십시오.

사용자 설명서

TKG 2.3 독립형 관리 클러스터 배포 및 관리에는 vSphere with Tanzu Supervisor에서 TKG를 사용하는 것과 관련이 없는 독립형 관리 클러스터와 관련된 항목이 포함되어 있습니다.

자세한 내용은 VMware Tanzu Kubernetes Grid 설명서 페이지에서 배포에 적합한 TKG 설명서 정의를 참조하십시오.

해결된 문제

v2.3.1에서 해결됨

Tanzu Kubernetes Grid v2.3.1은 문서화되지 않은 고객 문제와 버그를 해결합니다.

v2.3.0에서 해결됨

이전 Tanzu Kubernetes Grid 릴리스의 알려진 문제로 기록된 다음 문제는 Tanzu Kubernetes Grid v2.3에서 해결되었습니다.

  • IPv6 네트워킹은 vSphere 8에서 지원되지 않습니다.

    TKG v2.3은 vSphere 8에서 IPv6 네트워킹을 지원하지 않지만 IPv6 네트워킹에 설명된 대로 vSphere 7에서 Kube-Vip를 사용하는 단일 스택 IPv6 네트워킹을 지원합니다.

  • 클러스터 Autoscaler가 필요한 키를 MachineDeployment에 추가하지 않음

    클러스터 autoscaler를 사용하도록 설정한 클러스터를 생성하는 경우 예상 키 cluster.x-k8s.io/cluster-api-autoscaler-node-group-max-sizecluster.x-k8s.io/cluster-api-autoscaler-node-group-min-sizeMachineDeployment metadata.annotations에 추가되지 않습니다.

  • ClusterClass 구성에서 Worker 노드 롤아웃 변수가 누락됨

    워크로드 클러스터 MachineDeployments에 대한 롤아웃 전략을 설정하는 데 사용하는 WORKER_ROLLOUT_STRATEGY 변수가 모든 대상 플랫폼의 ClusterClass 구성에서 누락되었습니다. 이제 클래스 기반 클러스터와 레거시 계획 기반 클러스터에 WORKER_ROLLOUT_STRATEGY 변수를 설정할 수 있습니다. 자세한 내용은 구성 파일 변수 참조의 GPU 지원 클러스터를 참조하십시오.

  • AWS의 워크로드 클러스터 노드 풀은 독립형 관리 클러스터와 동일한 가용성 영역에 있어야 합니다.

    관리 클러스터가 있는 위치와 다른 az 구성된 노드 풀을 생성할 때 새 노드 풀이 tanzu cluster node-pool list에 나열된 대로 ScalingUp 상태로 멈춰 있고 Ready 상태에 도달하지 않을 수 있습니다.

  • 독립형 관리 클러스터를 다시 생성해도 Pinniped 인증이 복원되지 않음

    관리 및 워크로드 클러스터 인프라 백업 및 복원 관리(기술 미리보기)에 설명된 대로 독립형 관리 클러스터를 다시 생성한 후에는 Pinniped 인증을 통해 워크로드 클러스터에 로그인할 수 없습니다.

  • 실행 ID가 10000000+를 초과하면 Harbor CVE 내보내기가 실패할 수 있음

    TKG v2.2용으로 패키지된 버전인 Harbor v2.7.1에는 실행 기본 키 자동 증분 ID가 10000000+로 증가할 때 CVE가 "404 페이지를 찾을 수 없음" 오류와 함께 내보내기를 보고하는 알 수 없는 문제가 있었습니다.

  • tanzu package available get--default-values-file-output 옵션이 불완전한 Harbor 패키지용 구성 템플릿 파일을 출력

    tanzu package available get harbor.tanzu.vmware.com/PACKAGE-VERSION --default-values-file-output FILE-PATH가 실행되면 Harbor 패키지용 구성 템플릿 파일이 생성됩니다.

  • 클래스 기반 클러스터의 자동조정기에는 수동 주석이 필요합니다.

    클러스터 API 레이블 전파 문제로 인해 클래스 기반 워크로드 클러스터용 클러스터 구성 파일의 AUTOSCALER_MIN_SIZE_*AUTOSCALER_MAX_SIZE_* 설정이 클러스터의 MachineDeployment 개체에 설정되지 않아서 수동으로 추가해야 합니다.

  • 클래스 기반 클러스터 이름에는 로드 밸런서 서비스 또는 수신 컨트롤러로 NSX ALB가 있는 25자로 제한

    NSX ALB(Advanced Load Balancer)가 독립 실행형 관리 클러스터가 있는 클래스 기반 클러스터의 로드 밸런서 서비스 또는 수신 컨트롤러로 사용되는 경우, 애플리케이션 이름에는 클러스터 이름과 AKO 패키지의 내부 이름과 load-balancer-and-ingress-service가 모두 포함됩니다. 결합된 이름이 Avi Controller 애플리케이션에 대한 64자 제한을 초과하면 tanzu cluster create 명령이 avi-system 네임스페이스를 찾을 수 없습니다.

    해결 방법: NSX ALB를 로드 밸런서 또는 수신 컨트롤러로 사용하는 경우 클래스 기반 클러스터 이름 길이를 25자 이하로 제한합니다.

알려진 문제

다음은 Tanzu Kubernetes Grid v2.3.x의 알려진 문제입니다. 후속 v2.3.x 패치 릴리스에서 해결된 v2.3.0에 있었던 모든 알려진 문제는 수정된 패치 릴리스의 해결된 문제에 있습니다.

관리 클러스터 문제 해결워크로드 클러스터 문제 해결 또는 VMware 기술 자료 문서에서 자주 발생하는 문제에 대한 추가 솔루션을 찾을 수 있습니다.

패키지

  • 단일 노드 클러스터에 대한 표준 저장소 추가 실패

    tanzu package repository add를 실행하여 tanzu-standard 저장소를 vSphere의 단일 노드 클러스터에 설명된 유형의 단일 노드 클러스터에 추가하지 못할 수 있습니다.

    이 문제는 단일 노드 클러스터가 cert-manager를 코어 추가 기능으로 부팅하여 tanzu-standard 저장소의 다른 cert-manager와 충돌하기 때문에 발생합니다.

    해결 방법: tanzu-standard 저장소를 추가하기 전에 cert-manager 설치에 설명된 대로 cert-manager 패키지 주석을 패치합니다.

클러스터 작업

  • AWS 및 Azure에서 개체 규격을 사용하여 워크로드 클러스터 생성이 영역/지역 오류로 인해 실패함

    기본적으로 AWS 또는 Azure에서는 클래스 기반 클러스터 개체 규격이 --file로 전달된 tanzu cluster create를 실행하면 Tanzu CLI가 vSphere 가용성 영역과만 관련된 지역과 영역을 확인합니다.

    해결 방법 AWS 또는 Azure에서 클래스 기반 클러스터를 생성할 때 클래스 기반 클러스터 생성에 설명된 1단계 또는 2단계 프로세스를 사용하는지 여부에 따라 다음 중 하나를 수행합니다.

    • 1단계: 설명된 대로 1단계 프로세스에 따라 features.cluster.auto-apply-generated-clusterclass-based-configurationtrue로 설정하고, --dry-runtanzu cluster create로 전달하지 않습니다.

    • 2단계: 개체 규격을 두 번째 단계로 사용하여 tanzu cluster create를 실행하기 전에 로컬 환경에서 SKIP_MULTI_AZ_VERIFYtrue로 설정합니다.

      export SKIP_MULTI_AZ_VERIFY=true
      
  • 용량이 제한된 클러스터를 사용할 때 구성 요소가 스케줄링되지 못함

    관리 클러스터 및 워크로드 클러스터의 경우 단일 제어부 노드, 단일 Worker 노드 또는 중소형 클러스터를 사용하여 클러스터를 배포하면 리소스 스케줄링 경합이 발생할 수 있습니다.

    해결 방법: 단일 노드 클러스터 또는 총 3개 이상의 노드가 있는 클러스터를 사용합니다.

  • Antrea CNI를 사용하여 현재가 아닌 TKr 버전을 기준으로 하는 새 워크로드 클러스터를 생성할 수 없음

    Antrea CNI를 사용하고 이전 버전 TKG와 함께 제공된 Kubernetes 버전(예: Kubernetes v1.23.10)을 실행하는 새 워크로드 클러스터를 생성할 수 없습니다. 이는 Tanzu Kubernetes Grid v2.2에서 지원되는 Kubernetes 버전에 있는 TKG v1.6.1의 기본 Kubernetes 버전입니다.

    해결 방법: Kubernetes 1.26.8, 1.25.13 또는 1.24.17을 실행하는 워크로드 클러스터를 생성합니다. Kubernetes 프로젝트는 현재 부 버전의 최신 패치 버전에서 구성 요소를 실행할 것을 권장합니다.

  • 관리 클러스터 제어부 노드를 짝수로 확장할 수 없음

    관리 클러스터에서 tanzu cluster scale을 실행하고 짝수를 --controlplane-machine-count 옵션에 전달하는 경우 TKG는 제어부 노드의 크기를 조정하지 않으며 CLI가 오류를 출력하지 않습니다. 쿼럼을 유지하려면 제어부 노드 수가 항상 홀수여야 합니다.

    해결 방법 제어부 노드 수를 짝수로 조정하지 마십시오.

네트워킹

참고

v4.0 이상의 경우 VMware NSX-T Data Center 이름이 "VMware NSX"로 변경됩니다.

  • 일부 NSX ALB 구성 변수가 작동하지 않음

    TKG v2.3에서 관리 클러스터 구성 변수 AVI_DISABLE_INGRESS_CLASS, AVI_DISABLE_STATIC_ROUTE_SYNC AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER가 작동하지 않습니다.

    기본 속성을 기본값이 아닌 값 true로 설정하려면 관리 클러스터가 생성된 후 아래에 설명된 대로 관리 클러스터의 두 AKODeploymentConfig 구성 개체를 수동으로 편집해야 합니다.

    해결 방법: 관리 클러스터에서 install-ako-for-allinstall-ako-for-management-cluster개체를 편집합니다.

    1. kubectl 컨텍스트를 관리 클러스터로 설정합니다.

      kubectl config use-context MGMT-CLUSTER-CONTEXT
      
    2. install-ako-for-allinstall-ako-for-management-cluster 구성을 편집합니다.

      kubectl edit adc install-ako-for-all
      
      kubectl edit adc install-ako-for-management-cluster
      
    3. 구성에서 다음 속성을 원하는 대로 설정합니다.

      • extraConfigs.ingress.disableIngressClass - for config var AVI_DISABLE_INGRESS_CLASS
      • extraConfigs.disableStaticRouteSync - for config var AVI_DISABLE_STATIC_ROUTE_SYNC
      • extraConfigs.ingress.defaultIngressController - for config var AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER
    4. 저장 후 종료합니다.

    이러한 설정은 관리 클러스터가 이후에 생성하는 워크로드 클러스터에 적용됩니다.

  • NSX ALB NodePortLocal 수신 모드는 관리 클러스터에서 지원되지 않습니다.

    TKG v2.3에서는 관리 클러스터로의 트래픽에 대해 수신 모드 NodePortLocal을 사용하여 ALB(NSX Advanced Load Balancer)를 서비스 유형으로 실행할 수 없습니다.

    이 문제는 NodePortLocal 모드의 L7 수신에 설명된 대로 워크로드 클러스터에 대한 NodePortLocal 수신 지원에는 영향을 주지 않습니다.

    해결 방법: NodePort 또는 ClusterIP로 설정된 AVI_INGRESS_SERVICE_TYPE으로 관리 클러스터를 구성합니다. 기본값은 NodePort입니다.

  • 이전 NSX-T 버전 및 Photon 3 또는 Linux 커널 5.8 VM이 있는 Ubuntu에서 관리 클러스터 생성이 실패하거나 성능이 느려짐

    다음 인프라 및 구성을 사용하여 관리 클러스터를 배포하면 실패하거나 포드 간 트래픽이 제한됨:

    • 다음 버전의 NSX-T가 있는 vSphere:
      • 고급 데이터 경로가 활성화된 v3.1.3 NSX-T
      • v3.1.3보다 낮은 v3.1.x NSX-T
      • v3.0.2 핫 패치보다 낮은 v3.0.x NSX-T
      • NSX-T v2.x. 여기에는 NSX-T v2.5를 사용하는 AVS(Azure VMware Solution) v2.0이 포함됩니다.
    • 기본 이미지: linux 커널 5.8이 있는 Photon 3 또는 Ubuntu

    이 조합은 이전 버전의 NSX-T Antrea CNI 간에 체크섬 문제를 노출합니다.

    TMC: 관리 클러스터가 TMC(Tanzu Mission Control)에 등록된 경우 이 문제에 대한 해결 방법은 없습니다. 그렇지 않으면 아래의 해결 방법을 참조하십시오.

    해결 방법:

    • ANTREA_DISABLE_UDP_TUNNEL_OFFLOAD"true"로 설정된 상태로 워크로드 클러스터를 배포합니다. 이 설정은 Antrea의 UDP 체크섬 오프로딩을 비활성화하여 일부 언더레이 네트워크 및 물리적 NIC 네트워크 드라이버의 알려진 문제를 방지합니다.
    • 고급 데이터 경로를 비활성화하지 않은 NSX-T v3.0.2 핫 패치, v3.1.3 이상으로 업그레이드
    • Linux 커널 5.9 이상에서 Ubuntu 기본 이미지를 사용합니다.

스토리지

  • 워크로드 클러스터가 여러 데이터스토어에 스토리지를 분산할 수 없음

    데이터스토어 클러스터를 사용하는 클러스터 배포에 설명된 대로 워크로드 클러스터가 여러 데이터스토어에 스토리지를 분산하도록 설정할 수 없습니다. 워크로드 클러스터의 스토리지 정책의 기반으로 데이터스토어 클러스터의 여러 데이터스토어에 태그를 지정하는 경우 워크로드 클러스터는 데이터스토어 중 하나만 사용합니다.

    해결 방법: 없음

Tanzu CLI

  • HTTP/HTTPS 프록시 암호에는 영숫자가 아닌 문자를 사용할 수 없습니다.

    CLI를 사용하여 관리 클러스터를 배포할 때 영숫자가 아닌 문자 # ` ^ | / ? % ^ { [ ] } \ " < >는 암호에서 사용할 수 없습니다. 또한 UI를 사용하여 관리 클러스터를 배포할 때는 HTTP/HTTPS 프록시 암호에서 영숫자가 아닌 문자를 사용할 수 없습니다.

    해결 방법: CLI와 함께 관리 클러스터를 배포할 경우 # ` ^ | / ? % ^ { [ ] } \ " < >를 제외한 비-영숫자를 사용할 수 있습니다.

  • ARM 프로세서가 있는 macOS 시스템에서 TANZU CLI가 작동하지 않음

    Tanzu CLI v0.11.6은 Finder > 이 Mac 정보(About This Mac) > 개요(Overview)에서 식별된 대로 ARM(Apple M1) 칩이 탑재된 macOS 시스템에서 작동하지 않습니다.

    해결 방법: Linux 또는 Windows OS가 있는 부트스트랩 시스템 또는 Intel 프로세서가 탑재된 macOS 시스템을 사용합니다.

  • Tanzu CLI에 tanzu management-cluster osimage 표시

    management-cluster 명령 그룹은 tanzu management-cluster osimage를 표시합니다. 이 기능은 현재 개발 중이며 향후 사용할 수 있습니다.

    해결 방법: tanzu management-cluster osimage를 사용하지 마십시오.

vSphere

  • 클러스터 제어부를 사용할 수 있게 되기를 기다리는 동안 관리 클러스터를 vSphere 7로 배포하지 못함

    관리 클러스터를 vSphere 7에 배포할 때 VM 네트워크를 지정하면 배포가 실패하고 unable to set up management cluster: unable to wait for cluster control plane available: control plane is not available yet 오류가 발생합니다.

    해결 방법: 그런 다음 네트워크 "VM 네트워크"에는 VsVipServiceEngine의 정적 IP가 있는 여러 개의 서브넷이 구성되어 있습니다. 검색된 서브넷을 무시하고 가상 서비스를 서비스 엔진에 배치하도록 허용하려면 VM 네트워크에서 exclude_discovered_subnets을 True로 설정합니다.

  • 가용성 영역은 VM이 할당된 동안 삭제할 수 있습니다.

    VM이 포함된 가용성 영역을 삭제하면 이후에 VM을 삭제할 수 없습니다.

    해결 방법: VM을 삭제하기 전에 가용성 영역에서 모든 VM을 제거합니다.

  • VPXD 세션 소진으로 인해 워크로드 클러스터 생성이 실패함

    vSphere 워크로드 클러스터를 생성할 때 생성이 실패하고 다음 오류가 발생합니다.

    vSphere config validation failed: failed to get VC client: failed to create vc client: Post "https://address/sdk": EOF ". VCenter vpxd.log report error: Out of HTTP sessions: Limited to 2000
    

    이 문제는 vCenter Server 세션 소진으로 인해 발생합니다.

    해결 방법: VMware KB 50114010을 참조하십시오.

  • small 노드로 생성된 노드 풀이 Provisioning에서 멈출 수 있음

    small로 구성된 노드 SIZE로 생성된 노드 풀이 Provisioning 상태에서 중단되고 Running으로 진행하지 않을 수 있습니다.

    해결 방법: 최소 medium 크기의 노드로 노드 풀을 구성합니다.

Windows

  • Windows 작업자가 인터넷 제한 환경에서 지원되지 않음

    VMware는 프록시 또는 에어갭 환경에서 Windows Worker 노드가 있는 TKG 워크로드 클러스터를 지원하지 않습니다.

    해결 방법: VMware 담당자에게 문의하십시오. 일부 TKG 사용자는 Windows 사용자 지정 이미지를 구축하고 오프라인 환경에서 Windows 작업자와 함께 워크로드 클러스터를 실행합니다(예: 이 비공식 저장소에 설명된 대로).

Image-Builder

  • 이미지 빌드 중 무시할 수 있는 goss 테스트 실패

    Kubernetes Image Builder를 실행하여 사용자 지정 Linux 사용자 지정 시스템 이미지를 생성하면 goss 테스트 python-netifaces, python-requests, ebtables에 실패합니다. 명령 출력이 실패를 보고합니다. 오류는 무시해도 됩니다. 성공적인 이미지 빌드를 방지하지는 않습니다.

AVS

  • VSPHERE CSI 볼륨 삭제가 AVS에서 실패할 수 있음

    AVS(Azure vSphere Solution)에서 vSphere CSI PV(영구 볼륨) 삭제가 실패할 수 있습니다. PV를 삭제하려면 cns.searchable 권한이 필요합니다. AVS의 기본 관리자 계정인 [email protected]이 사용 권한으로 생성되지 않습니다. 자세한 내용은 vSphere 역할 및 권한을 참조하십시오.

    해결 방법: AVS에서 vSphere CSI PV를 삭제하려면 Azure 지원에 문의하십시오.

Tanzu Standard 저장소 v2023.7.13

TKG v2.3에서는 Tanzu Standard 패키지 저장소가 TKG와 별도로 버전 관리되고 배포되며 해당 버전 관리가 날짜 스탬프를 기반으로 합니다.

TKG v2.3.0 및 v2.3.1의 경우 TKG 패치 버전과 호환되는 최신 Tanzu Standard 저장소 버전이 같은 날짜에 릴리스됩니다.

향후 Tanzu Standard 저장소 버전은 TKG 버전보다 더 자주 게시될 수 있지만 모든 패치 버전은 부 버전의 TKG와 Tanzu Standard 간에 기존 호환성을 유지합니다.

각 TKG v2.3 패치 버전에 대해 호환되는 최신 Tanzu Standard 저장소 버전은 다음과 같습니다.

Tanzu 표준 저장소 패키지 지원

VMware는 VMware Tanzu Standard 저장소에 제공되는 선택적 패키지에 대해 다음과 같이 지원합니다.

  • VMware는 Tanzu Kubernetes Grid 배포될 때 옵션인 VMware Tanzu Standard 저장소에 포함된 패키지에 대한 설치 및 업그레이드 검증을 제공합니다. 이 검증은 패키지의 설치 및 업그레이드로 제한되지만 CVE를 해결하는 데 필요한 사용 가능한 업데이트가 포함됩니다. 버그 수정, 기능 향상, 보안 수정 사항은 업스트림 패키지 프로젝트에서 사용할 수 있는 경우 새 패키지 버전에 제공됩니다.
  • VMware는 Tanzu 표준 저장소에서 제공하는 구성 요소에 대한 런타임 수준 지원을 제공하지 않습니다. 구성 디버깅, 성능 관련 문제 또는 패키지 자체의 디버깅 및 수정은 VMware에서 제공되지 않습니다.
  • VMware는 VMware 지원 패키지 Harbor, Contour, Velero가 Tanzu Kubernetes Grid에서 배포될 때 런타임 수준 지원을 제공합니다.

Cert-manager v1.11.1

새로운 기능

지원되는 버전

TKG 버전 jetstack_cert-manager 버전 vmware cert-manager 패키지 버전 Kubernetes 버전 호환성
2.3 v1.11.1 v1.11.1+vmware.1 1.21-1.27

구성 요소 버전

cert manager v1.11.1에는 다음과 같은 구성 요소 이미지 버전이 포함되어 있습니다.

  • quay.io/jetstack/cert-manager-cainjector:v1.11.1
  • quay.io/jetstack/cert-manager-controller:v1.11.1
  • quay.io/jetstack/cert-manager-webhook:v1.11.1
  • quay.io/jetstack/cert-manager-acmesolver:v1.11.1

사용 중단

다음 인증서 관리자 버전은 TKG v2.3에서 더 이상 사용되지 않습니다.

  • v1.5.3
  • v1.7.2
  • v1.10.2

Contour v1.24.4

새로운 기능

  • Contour v1.24.0-4 릴리스 정보를 참조하십시오.
  • 다음과 같은 데이터 값을 사용하여 DaemonSet(기본값)이 아닌 지정된 수의 복제본을 사용하여 배포로 설치하도록 Envoy를 구성할 수 있습니다.
    envoy: 
      workload: 
        type: Deployment 
        replicas: 3
    
  • 다음과 같은 데이터 값을 사용하여 Contour 및 Envoy 워크로드 내의 각 컨테이너에 대한 리소스 요청 또는 제한을 지정할 수 있습니다.

    contour: 
      resources: 
        contour: 
          requests: 
            cpu: 250m 
            memory: 128Mi 
          limits: 
            cpu: 1 
    
            memory: 512Mi
    envoy:
      resources:
        envoy:
    # include requests and limits as desired
        shutdown-manager:
    # include requests and limits as desired 
    
  • data-values 파일 구성 값이 확인됩니다. 데이터 값에 지원되지 않는 값을 지정하면 오류가 발생합니다.

지원되는 Kubernetes 버전

Contour v1.24.4는 Kubernetes v1.24-v1.26에서 지원됩니다. Contour 호환성 매트릭스를 참조하십시오.

사용 중단

  • v1.24.4 이전의 모든 Contour 버전이 Tanzu Standard 저장소 v2023.7.13에서 제거되었습니다.
  • Contour 패키지 data-values 파일은 더 이상 null 값을 허용하지 않습니다. 값이 null로 설정된 구성 필드의 경우 값을 완전히 생략해야 합니다.

External-csi-snapshot-webhook v6.1.0

새로운 기능

  • external-csi-snapshot-Webhook은 TKG v2.3용 새 패키지입니다.
  • vSphere 8.0U2 Supervisor가 있는 TKG v2.3은 Supervisor 및 배포하는 워크로드 클러스터에 대해 CSI 스냅샷을 지원하지만 먼저 Tanzu CLI를 사용하여 external-csi-snapshot-webhook v6.1.0을 명시적으로 설치해야 합니다.

지원되는 버전

TKG 버전 external-csi-snapshot-webhook 버전 예상 Kubernetes 버전 호환성 Kubernetes 버전에서 테스트됨
2.3.0 6.1.0 1.18 - 최신 1.24

종속성

  • external-csi-snapshot-webhook을 사용하려면 kubernetes API 서버와의 보안 X509 통신을 위해 cert-manager가 필요합니다.

구성 요소 버전

external-csi-snapshot-webhook에는 다음과 같은 구성 요소 이미지 버전이 포함되어 있습니다.

  • registry.k8s.io/sig-storage/snapshot-validation-webhook:v6.1.0

외부 DNS v0.13.4

새로운 기능

  • 공개 DNS v0.13.4 릴리스 정보 참조
  • createNamespace 구성 필드. true로 설정하여 external-dns 구성 요소가 설치된 네임스페이스를 생성합니다. false로 설정하면 패키지 구성 요소가 기존 네임스페이스에 설치됩니다.

Fluent-bit v2.1.2

새로운 기능

제한 사항/알려진 문제점

  • AWS S3에 액세스하기 위한 Fluent-bit 패키지 ConfigMap에서 AWS 자격 증명 환경 변수를 지원하지 않습니다.
    • AWS 자격 증명 지원은 향후 릴리스에 대해 계획되어 있습니다.

Fluxcd 컨트롤러

새로운 기능

다음 Fluxcd 컨트롤러 패키지 릴리스 정보를 참조하십시오.

Grafana v9.5.1

새로운 기능

구성 요소 버전

Grafana v9.5.1에는 다음과 같은 구성 요소 이미지 버전이 포함되어 있습니다.

  • grafana/grafana:9.5.1
  • kiwigrid/k8s-sidecar:1.22.0

Harbor v2.8.2

새로운 기능

  • Harbor v2.8.2 릴리스 정보 참조
  • CVE로 인해 TKG v2.3과 다음 Harbor 버전과의 호환성이 제거되었습니다.
    • v2.2.3_vmware.1-tkg.1
    • v2.2.3_vmware.1-tkg.2
    • v2.3.3_vmware.1-tkg.1
    • v2.5.3_vmware.1-tkg.1
    • v2.7.1_vmware.1-tkg.1

구성 요소 버전

Harbor v2.8.2에는 다음과 같은 구성 요소 이미지 버전이 포함되어 있습니다.

  • harbor-core:v2.8.2
  • harbor-db:v2.8.2
  • harbor-exporter:v2.8.2
  • harbor-jobservice:v2.8.2
  • harbor-portal:v2.8.2
  • harbor-registryctl:v2.8.2
  • registry-photon:v2.8.2
  • notary-server-photon:v2.8.2
  • notary-signer-photon:v2.8.2
  • redis-photon:v2.8.2
  • trivy-adapter-photon:v2.8.2

Multus-CNI v4.0.1

새로운 기능

  • 씩 플러그인 배포 및 아키텍처가 도입되었습니다. Multus-CNI v4.0.1 새 기능 참조
  • 다음과 같이 기본값을 변경합니다.

    namespace: kube-system 
    #! DaemonSet related configuration 
    daemonset: 
      resources: 
        limits: 
          cpu: 100m 
          memory: 50Mi 
        requests: 
          cpu: 100m 
          memory: 50Mi 
    configmap: 
      cniVersion: 0.3.1 
      multusConfigFile: auto 
    

Prometheus v2.43.0

새로운 기능

구성 요소 버전

Prometheus v2.43.0에는 다음과 같은 구성 요소 이미지 버전이 포함되어 있습니다.

  • prom/prometheus:v2.43.0
  • prom/alertmanager:v0.25.0
  • prom/pushgateway:v1.5.1
  • jimmidyson/configmap-reload:v0.8.0
  • bitnami/kube-state-metrics:2.8.2
  • quay.io/prometheus/node-exporter:v1.5.0

Velero v1.10.0

새로운 기능

  • Velero v1.10.0 릴리스 정보 참조
  • Kopia는 Restic을 업로드자로 대체합니다. 이로 인해 다음과 같은 변경 내용이 중단됩니다. 자세한 내용은 Velero v1.10 changelog의 긴급 변경을 참조하십시오.
    • restic daemonset의 이름이 node-agent로 변경됨
    • ResticRepository CR 이름이 BackupRepository로 변경됨
    • velero restic repo 명령 이름이 velero repo로 변경됨
    • velero-restic-credentials 암호 이름이 velero-repo-credentials로 변경됨
    • default-volumes-to-restic 매개 변수 이름이 default-volumes-to-fs-backup으로 변경됨
    • restic-timeout 매개 변수 이름이 fs-backup-timeout으로 변경됨
    • default-restic-prune-frequency 매개 변수 이름이 default-repo-maintain-frequency으로 변경됨
  • 통합 저장소 및 Kopia 통합 설계에 설명된 대로 백업 저장소를 통합하고 데이터 이동기에서 분리합니다.
  • 기존 Restic 경로와 함께 Kopia 경로를 추가하여 파일 시스템 백업을 다시 생성하고 uploader-type 구성 매개 변수를 통해 둘 다 지원합니다.
  • BackupItemAction, RestoreItemAction, VolumeSnapshotterAction 플러그인을 버전 v1로 이동하여 복잡한 데이터 이동 작업과 같은 이전 버전 호환성을 지원하지 않을 수 있는 향후 플러그인 변경을 허용합니다. 플러그인 버전 관리를 참조하십시오.
  • 특정 볼륨 스냅샷 위치에 대한 자격 증명을 저장하는 옵션을 추가합니다. 백업 스토리지 위치 및 볼륨 스냅샷 위치를 참조하십시오.
  • CSI 스냅샷이 다양한 백업 리소스 필터에서 작동하도록 오류 처리를 위한 보호 코드와 제외 검사를 건너뛸 수 있는 기능을 통해 CSI 스냅샷의 견고성을 향상시킵니다.
  • 백업 스케줄 일시 중지/일시 중지 해제 지원:
    • 일시 중지된 -paused 플래그를 velero schedule create에 전달하여 일시 중지된 스케줄을 생성합니다.
    • velero schedule pausevelero schedule unpause는 기존 스케줄을 일시 중지 및 일시 중지 해제합니다.

지원되는 버전

TKG 버전 Velero 버전 예상 Kubernetes 버전 호환성 Kubernetes 버전에서 테스트됨
2.3(Halifax) 1.10 1.18-최신 1.22.5, 1.23.8, 1.24.6, 1.25.1

구성 요소 버전

Velero v1.10.3에는 다음과 같은 구성 요소 이미지 버전이 포함되어 있습니다.

  • velero/velero:v1.10.3
  • velero/velero-plugin-for-aws:v1.6.2
  • velero/velero-plugin-for-csi:v0.4.3
  • velero/velero-plugin-for-microsoft-azure:v1.6.2
  • vsphereveleroplugin/velero-plugin-for-vsphere:v1.5.1

CVE를 수정하기 위해 Velero 런타임 및 종속성 버전은 다음과 같이 업데이트됩니다.

  • Go runtime v1.18.8
  • 공식 Restic 바이너리를 패키징하는 대신 Go 1.18.8을 사용하여 컴파일된 Restic v0.13.1
  • 코어 종속 라이브러리의 업데이트된 버전

업그레이드

파일 시스템 백업 변경으로 인해 이전 업그레이드 절차가 작동하지 않습니다. 새 업그레이드 단계는 Velero 1.10으로 업그레이드를 참조하십시오.

제한 사항/알려진 문제점

  • Kopia 백업은 S3 호환 스토리지에 대해 자체 서명된 인증서를 지원하지 않습니다. 이 문제를 추적하려면 Velero 문제 #5123Kopia 문제 #1443을 참조하십시오.
  • Velero 문제 #485의 vSphere 플러그인에 설명된 대로 Velero 버전의 최신 vSphere 플러그인에서는 작동하지 않습니다. 이 문제가 해결될 때까지 Velero v1.1.0에서 작동하도록 vSphere 플러그인을 업그레이드하지 마십시오.

Whereabouts v0.6.1

새로운 기능

  • 이중 스택 IP 할당을 구성하기 위한 ipRanges를 지원합니다. Whereabouts repo README의 예시 IPv6 구성을 참조하십시오.
check-circle-line exclamation-circle-line close-line
Scroll to top icon