This site will be decommissioned on December 31st 2024. After that date content will be available at techdocs.broadcom.com.

VMware Tanzu Kubernetes Grid v2.3 リリース ノート

特に記載がある場合を除き、これらのリリース ノートは、Tanzu Kubernetes Grid (TKG) のすべての v2.3.x パッチ バージョンに適用されます。

TKG v2.3 は、バージョン管理された TKG スタンドアローン管理クラスタを展開するダウンロード可能な Tanzu CLI パッケージとして配布されます。TKG v2.3 は、vSphere、AWS、Azure など、複数のインフラストラクチャで実行できるスタンドアローン管理クラスタを使用したクラスベースのワークロード クラスタの作成と管理をサポートします。

Tanzu Kubernetes Grid v2.x および vSphere 8 の vSphere with Tanzu スーパーバイザー

重要

vSphere 8.0.1c 以降の vSphere with Tanzu スーパーバイザーは TKG v2.2 を実行します。vSphere 8 の以前のバージョンでは TKG v2.0 が実行されますが、これはスーパーバイザーからは独立してリリースされていませんでした。TKG 2.x を実行するスタンドアローン管理クラスタは、TKG 2.1 以降で使用できます。以前のバージョンの TKG がスーパーバイザーに組み込まれているため、スタンドアローン TKG 2.3 管理クラスタを使用している場合に使用可能な機能の一部は、vSphere with Tanzu スーパーバイザーを使用してワークロード クラスタを作成している場合には使用できません。以降の TKG リリースは、今後の vSphere アップデート リリースでスーパーバイザーに組み込まれる予定です。その結果、特定の時点で最新の vSphere with Tanzu バージョンに組み込まれた TKG のバージョンは、TKG の最新のスタンドアローン バージョンほど新しいバージョンではない可能性があります。ただし、すべての TKG v2.x リリースと互換性のある Tanzu CLI のバージョンは、vSphere 8 のすべてのリリースのスーパーバイザーでの使用が完全にサポートされています。たとえば、Tanzu CLI v1.0.0 は、スーパーバイザーが提供する TKG 2.2 プラグインと完全に後方互換性があります。

Tanzu CLI および vSphere 7 の vSphere with Tanzu

TKG 2.x および vSphere 8 の vSphere with Tanzu スーパーバイザーと互換性のある Tanzu CLI のバージョンは、vSphere 7 のスーパーバイザー クラスタと互換性がありません。vSphere 7 の vSphere with Tanzu スーパーバイザー クラスタで Tanzu CLI を使用するには、TKG v1.6 の Tanzu CLI バージョンを使用します。スーパーバイザーで TKG 2.x と互換性のある Tanzu CLI のバージョンを使用するには、vSphere 8 にアップグレードします。vSphere with Tanzu スーパーバイザー クラスタが存在しない場合は、スタンドアローン TKG 2.x 管理クラスタを vSphere 7 に展開できます。Tanzu CLI と VMware 製品の互換性の詳細については、Tanzu CLI のドキュメントを参照してください。

新機能

Tanzu Kubernetes Grid v2.3.x には、次の新機能が含まれています。

Tanzu Kubernetes Grid v2.3.1

Tanzu Kubernetes Grid v2.3.1 の新機能:

Tanzu Kubernetes Grid v2.3.0

Tanzu Kubernetes Grid v2.3.0 の新機能:

  • Tanzu Kubernetes Grid 用のスタンドアローン Tanzu CLI プラグインを含む、スタンドアローン Tanzu CLI プラグイン用の新しい配布メカニズム。また、Tanzu Core CLI は、Tanzu Kubernetes Grid とは別に配布されるようになりました。Tanzu Kubernetes Grid で使用するために Tanzu CLI をインストールする方法については、「スタンドアローン管理クラスタで使用する Tanzu CLI と Kubernetes CLI のインストール」を参照してください。
  • Tanzu Standard パッケージ リポジトリはバージョン管理され、TKG とは別に配布されます。以下の「Tanzu Standard リポジトリ v2023.7.13」を参照してください。
    • TKG v2.3.0 に対して互換性のある最新の Tanzu Standard リポジトリ バージョンは、Tanzu Standard リポジトリ v2023.7.13 です。
  • 複数のアベイラビリティ ゾーン (AZ) にまたがってワークロード クラスタおよびスタンドアローン管理クラスタを実行し、ノードが実行する AZ を変更できます。
    • 複数の AZ にまたがって新しいワークロード クラスタを展開し、既存の管理クラスタとワークロード クラスタを複数または異なる AZ で実行するように変更する方法については、「複数のアベイラビリティ ゾーンにまたがるクラスタの実行」を参照してください。
    • インストーラ インターフェイスを使用して、複数の AZ にまたがって実行するように新しいスタンドアローン管理クラスタを構成するには、「vSphere リソースの構成」を参照してください。
    • 複数の AZ のサポートは、安定した機能の状態にあります。
  • 単一ノード クラスタはアップグレード可能で、Telco Cloud Automation (TCA) でサポートされています。「vSphere 上の単一ノード クラスタ」を参照してください。
    • 効率的な展開手順では、管理クラスタに tiny TKr を追加する必要はありません。
    • Tanzu Mission Control (TMC) を使用して単一ノード クラスタを作成および管理することはできませんが、この機能は TMC の今後のリリースで計画されています。
  • クラスタ全体のポッド セキュリティ アドミッション (PSA) コントローラは、「ポッド セキュリティ アドミッション コントローラ」の説明に従って、新しいクラスタ構成ファイル変数 POD_SECURITY_STANDARD_* および Cluster 仕様の podSecurityStandard 設定を使用して構成できます。
    • PSA サポートは、安定した機能の状態にあります。
  • (vSphere) クラスタ内 IP アドレス管理 (IPAM) 機能が拡張されました。「ノード IP アドレス管理」を参照してください。
    • クラスベースのワークロード クラスタに加えて、スタンドアローン管理クラスタの IP アドレス管理。
    • IPv6 のサポート。
    • 異なる管理名前空間内のワークロード クラスタは、同じグローバル IP アドレス プールから IP アドレスを割り当てることができます。
    • IP アドレス プールには、連続しない IP アドレス範囲を含めることができます。
    • IP アドレス プール クエリ kubectl get inclusterippool は、FREE および USED アドレス数を出力します。
    • 構成ファイル変数リファレンス」の「ノード IP アドレス管理」で説明されているクラスタ構成変数。
    • InClusterIPPool オブジェクト構造は、以前の TKG バージョンとは異なります。クラスタを v2.3 にアップグレードすると、IP アドレス プールが新しい構造に変換されます。
  • Calico CNI を使用するクラスタは IP アドレス検出を実行します。「ポッドとコンテナ ネットワーク」の「Calico CNI」を参照してください。
  • 隔離されたストレージを持つ Edge ワークロード クラスタは、ローカルに保存された独自の仮想マシン テンプレートを使用できます。「ローカル仮想マシン テンプレートの指定」を参照してください。
  • 新しいクラスタ構成ファイル変数 VSPHERE_MTU は、vSphere 上の管理クラスタ ノードとワークロード クラスタ ノードの最大転送ユニット (MTU) のサイズを設定します。「クラスタ ノード MTU の構成」を参照してください。
  • TKr を作成または変更せずに、オブジェクト仕様に注釈を付けることで、代替マシン イメージを使用するようにクラスタを構成できます。「代替マシン イメージを使用する」を参照してください。
  • (vSphere) CONTROL_PLANE_NODE_NAMESERVERSWORKER_NODE_NAMESERVERS安定した状態になりました。これらの変数は、Ubuntu または Photon で実行されているノードに設定できます。Windows はサポートされていません。ユースケースの例については、「ノード IP アドレス管理」を参照してください。
  • 以前のリリースのカスタム ClusterClass 定義から作成したクラスタをアップグレードできるようになりました。詳細については、「カスタム クラスタのアップグレード」を参照してください。
  • マシン健全性チェックの新しいフラグ、--max-unhealthy および --machine-deployment。「ワークロード クラスタのマシン健全性チェックの管理」を参照してください。
  • 新しい tanzu mc credentials update オプション --vsphere-thumbprint を使用すると、Tanzu CLI を使用して、vSphere 上の管理クラスタおよびワークロード クラスタの vCenter Server の TLS サムプリントを更新できます。「クラスタ認証情報の更新」を参照してください。
  • 新しく作成されたプランベースのクラスタには、デフォルトで Tanzu Standard パッケージ リポジトリが追加されていません。
  • Pinniped コンポーネントは LDAP ID プロバイダに Dex を使用しなくなり、次のように構成が変更されます。

    • 新しい構成変数:LDAP_GROUP_SEARCH_SKIP_ON_REFRESH
    • 更新された構成変数:
    • LDAP_BIND_DNLDAP_BIND_PASSWORD が必要になりました。
    • LDAP_GROUP_SEARCH_NAME_ATTRIBUTE のデフォルトは dn です。
    • LDAP_USER_SEARCH_FILTERLDAP_GROUP_SEARCH_FILTER は、Pinniped で使用される形式で設定する必要があります。
    • 削除された構成変数:LDAP_USER_SEARCH_USERNAMELDAP_USER_SEARCH_EMAIL_ATTRIBUTE、および LDAP_GROUP_SEARCH_GROUP_ATTRIBUTE

    Dex の削除によって、TKG v2.3 にアップグレードする前に管理クラスタの LDAP 設定を変更する必要があります。「(LDAP のみ)LDAP 設定の更新」を参照してください。
    新しい構成変数と更新された構成変数の詳細については、「構成ファイル変数リファレンス」の「ID プロバイダ - LDAP」を参照してください。

  • Tanzu Standard パッケージ リポジトリは TKG とは別に配布されるため、TKG BoM ファイルには grafana コンテナ イメージが一覧表示されなくなります。その他の Tanzu Standard コンポーネントは、今後のリリースで BoM から削除される予定です。

Tanzu Standard リポジトリ

TKG v2.3 では、Tanzu Standard パッケージ リポジトリはバージョン管理され、TKG とは別に配布されます。バージョン管理は日付スタンプに基づきます。詳細については、以下の Tanzu Standard リポジトリ v2023.7.13 を参照してください。

各 TKG v2.3 パッチ バージョンの、互換性のある最新のTanzu Standard リポジトリ バージョンのリリース ノートは次のとおりです。

サポートされている Kubernetes、TKG、およびパッケージ バージョン

TKG v2.2 以降、TKG および TKr(TKG の Kubernetes バージョンをパッケージ化)の古いパッチ バージョンに対する VMware のサポート ポリシーが変更されました。TKG v2.1 以前のマイナー バージョンの TKG のサポート ポリシーには変更はありません。

以下の最初の 2 つのセクションでは、現在サポートされているすべてのバージョンの TKG および TKr のサポートを、それぞれに適用されるサポート ポリシーに基づいてまとめています。

以下の 3 番目のセクションでは、Kubernetes v1.26、v1.25、および v1.24 TKr でサポートされている Tanzu Standard リポジトリ内のパッケージのバージョンを示します。

サポート対象の Kubernetes バージョン

Tanzu Kubernetes Grid の各バージョンでは、管理クラスタの Kubernetes バージョンと、Tanzu Kubernetes リリース (TKr) として配布される追加の Kubernetes バージョンのサポートが追加されています(ただし、既知の問題に記載されているものは除く)。

マイナー バージョン: VMware は、リリース時に Kubernetes v1.26、v1.25、および v1.24 を使用する TKG v2.3 をサポートします。TKG v2.1 がジェネラル サポート終了のマイルストーンに達すると、VMware は TKG で Kubernetes v1.24 をサポートしなくなります。TKG v2.2 がジェネラル サポート終了のマイルストーンに達すると、VMware は TKG で Kubernetes v1.25 をサポートしなくなります。

パッチ バージョン: VMware は、マイナー バージョンの新しい TKr パッチを公開した後も、古いパッチ バージョンのサポートを 2 か月間保持します。これにより、ユーザーは 2 か月以内に新しい TKr パッチ バージョンにアップグレードすることになります。TKG v2.2 以降、VMware は、Kubernetes の以前のマイナー バージョンの TKr パッチ バージョンをすべてサポートしているわけではありません。

Tanzu Kubernetes Grid パッチ バージョンがサポートする TKr パッチ バージョンは以下のとおりです。

Tanzu Kubernetes Grid バージョン 管理クラスタの Kubernetes バージョン 指定された Kubernetes (TKr) バージョン
2.3.1 1.26.8 1.26.8, 1.25.13, 1.24.17
2.3.0 1.26.5 1.26.5、1.25.10、1.24.14
2.2.0 1.25.7 1.25.7、1.24.11、1.23.17
2.1.1 1.24.10 1.24.10、1.23.16、1.22.17
2.1.0 1.24.9 1.24.9、1.23.15、1.22.17

サポートされている Tanzu Kubernetes Grid バージョン

VMware は、次のように TKG バージョンをサポートします。

マイナー バージョン: VMware は、TKG の最新バージョンと 2 つ前のマイナー バージョンまでに適用される N-2 ライフサイクル ポリシーに従って TKG をサポートします。詳細については、『VMware Product Lifecycle Matrix』を参照してください。

パッチ バージョン: VMware は、以前のすべての TKG パッチ バージョンをサポートしているわけではありません。VMware が TKG の新しいパッチ バージョンをリリースした後も、古いパッチ バージョンのサポートは 2 か月間保持されます。これにより、ユーザーは 2 か月以内に新しい TKG パッチ バージョンにアップグレードすることになります。

  • たとえば、TKG v2.3.0 のサポートは、TKG v2.3.1 の一般提供から 2 か月後に終了します。

サポート対象のパッケージ バージョン

TKG v2.3 の場合、Tanzu Standard リポジトリのパッケージ バージョンは、次のように、Kubernetes マイナー バージョン v1.26、v1.25、および v1.24 の TKr と互換性があります。

パッケージ パッケージ バージョン Kubernetes v1.26 TKr Kubernetes v1.25 TKr Kubernetes v1.24 TKr
Cert Manager
cert-manager.tanzu.vmware.com
1.11.1+vmware.1-tkg.1-20230629
Contour
contour.tanzu.vmware.com
1.24.4+vmware.1-tkg.1-20230629
外部 DNS
external-dns.tanzu.vmware.com
0.13.4+vmware.2-tkg.1-20230629
0.12.2+vmware.5-tkg.2-20230629
0.11.1+vmware.5-tkg.2-20230629
Fluent Bit
fluent-bit.tanzu.vmware.com
2.1.2+vmware.1-tkg.1-20230629
1.9.5+vmware.1-tkg.3-zshippable
1.8.15+vmware.1-tkg.1
FluxCD ヘルプ コントローラ
fluxcd-helm-controller.tanzu.vmware.com
0.32.0+vmware.1-tkg.2-20230629
0.21.0+vmware.1-tkg.1-zshippable
FluxCD ソース コントローラ
fluxcd-source-controller.tanzu.vmware.com
0.33.0+vmware.2-tkg.1-20230629
Grafana
grafana.tanzu.vmware.com
9.5.1+vmware.2-tkg.1-20230629
7.5.17+vmware.1-tkg.3-zshippable
Harbor
harbor.tanzu.vmware.com
2.8.2+vmware.2-tkg.1-20230629
Multus CNI
multus-cni.tanzu.vmware.com
3.8.0+vmware.3-tkg.1
4.0.1+vmware.1-tkg.1-20230629
Prometheus
prometheus.tanzu.vmware.com
2.43.0+vmware.2-tkg.1-20230629
2.37.0+vmware.3-tkg.1
2.36.2+vmware.1-tkg.1
Whereabouts
whereabouts.tanzu.vmware.com
0.6.1+vmware.2-tkg.1-20230629
0.5.4+vmware.2-tkg.1

Tanzu Kubernetes Grid v2.3 の製品スナップショット

Tanzu Kubernetes Grid v2.3 は、次のインフラストラクチャ プラットフォームとオペレーティング システム (OS)、およびクラスタの作成と管理、ネットワーク、ストレージ、認証、バックアップと移行、および可観測性のコンポーネントをサポートします。

TKG v2.3 と互換性のある追加のパッケージ バージョンについては、Tanzu パッケージ ドキュメントの「Tanzu Standard リポジトリ v2023.10.16 リリース ノート」を参照してください。

TKG v2.3 に含まれるコンポーネント バージョンの完全なリストについては、「コンポーネントのバージョン」を参照してください。

vSphere AWS Azure
インフラストラクチャ プラットフォーム
  • vSphere 7.0、7.0U1-U3
  • vSphere 8.0、8.0U1
  • VMware Cloud on AWS* v1.20、v1.22
  • Azure VMware Solution v2.0
ネイティブ AWS ネイティブ Azure
Tanzu CLI Tanzu CLI Core v1.0.0**
TKG API、およびパッケージ インフラストラクチャ Tanzu Framework v0.30.2
クラスタの作成と管理 コア クラスタ API (v1.4.5)、クラスタ API プロバイダ vSphere (v1.7.1) コア クラスタ API (v1.4.5)、クラスタ API プロバイダ AWS (v2.1.3) コア クラスタ API (v1.4.5)、クラスタ API プロバイダ Azure (v1.9.2)
TKG で配布された Kubernetes ノード OS Photon OS 3、Ubuntu 20.04 Amazon Linux 2、Ubuntu 20.04 Ubuntu 18.04、Ubuntu 20.04
独自のイメージのビルド Photon OS 3、Red Hat Enterprise Linux 7*** および 8、Ubuntu 18.04、Ubuntu 20.04、Windows 2019 Amazon Linux 2、Ubuntu 18.04、Ubuntu 20.04 Ubuntu 18.04、Ubuntu 20.04
コンテナ ランタイム Containerd (v1.6.18)
コンテナ ネットワーク Antrea (v1.11.2)、Calico (v3.25.1)、Multus CNI (v4.0.1、v3.8.0)
コンテナ レジストリ Harbor (v2.8.4)
Ingress NSX Advanced Load Balancer Essentials and Avi Controller **** (v21.1.4-v21.1.6、v22.1.2-v22.1.3)、NSX v4.1.0 (vSphere 8.0.u1)、v3.2.2 (vSphere 7)、Contour (v1.25.2) Contour (v1.25.2) Contour (v1.25.2)
ストレージ vSphere コンテナ ストレージ インターフェイス (v3.0.1*****) および vSphere クラウド ネイティブ ストレージ Amazon EBS CSI ドライバ (v1.18.0) およびツリー内クラウド プロバイダ Azure Disk CSI ドライバ (v1.27.1)、Azure File CSI ドライバ (v1.27.0)、およびツリー内クラウド プロバイダ
認証 Pinniped 経由の OIDC および LDAP (v0.24.0)
可観測性 Fluent Bit (v2.1.6)、Prometheus (v2.45.0、v2.37.0)******、Grafana (v10.0.1)
サービス検出 外部 DNS (v0.13.4)
バックアップと移行 Velero (v1.10.3)

* このリリースと互換性のある VMware Cloud on AWS SDDC バージョンのリストについては、「VMware 製品の相互運用性マトリックス」を参照してください。

** このリリースと互換性のある Tanzu CLI バージョンの完全なリストについては、「製品の相互運用性マトリックス」を参照してください。

*** Tanzu Kubernetes Grid v1.6 は、Red Hat Enterprise Linux 7 イメージのビルドをサポートする最後のリリースです。

**** vSphere 8 で、TKG スタンドアローン管理クラスタとそのワークロード クラスタを使用して NSX Advanced Load Balancer を使用するには、NSX ALB v22.1.2 以降と TKG v2.1.1 以降が必要です。

***** vsphere_csi_driver のバージョン。このリリースに含まれる vSphere コンテナ ストレージ インターフェイス コンポーネントの完全なリストについては、「コンポーネントのバージョン」を参照してください。

****** クラスタを Kubernetes v1.25 にアップグレードする場合は、Prometheus をバージョン 2.37.0+vmware.3-tkg.1 以降にアップグレードする必要があります。Prometheus パッケージの以前のバージョン(バージョン 2.37.0+vmware.1-tkg.1 など)は、Kubernetes 1.25 と互換性がありません。

Tanzu Kubernetes Grid v2.3 に付属する Kubernetes バージョンの完全なリストについては、上記の「サポートされる Kubernetes バージョン」を参照してください。

コンポーネントのバージョン

TKG v2.3.x リリースには、次のソフトウェア コンポーネント バージョンが含まれています。

以前の TKG リリースには、現在 Tanzu Standard リポジトリを介して配布されているコンポーネントが含まれていました。これらのコンポーネントのリストについては、以下の「Tanzu Standard リポジトリ」を参照してください。

コンポーネント TKG v2.3.1 TKG v2.3.0
aad-pod-identity v1.8.15+vmware.2 v1.8.15+vmware.2*
addons-manager v2.2+vmware.1 v2.2+vmware.1*
ako-operator v1.9.0_vmware.1 v1.9.0_vmware.1*
alertmanager v0.25.0_vmware.4* v0.25.0_vmware.3*
antrea v1.11.2_vmware.1* v1.11.1_vmware.4*
antrea-interworking v0.11.1* v0.11.0*
aws-ebs-csi-driver v1.18.0+vmware.2 v1.18.0+vmware.2*
azuredisk-csi-driver v1.27.1+vmware.3* v1.27.1+vmware.2*
azurefile-csi-driver v1.27.0+vmware.3* v1.27.0+vmware.2*
calico v3.25.1+vmware.2 v3.25.1+vmware.2*
capabilities-package v0.30.2-capabilities* v0.30.2-capabilities*
carvel-secretgen-controller v0.14.2+vmware.2 v0.14.2+vmware.2*
cloud-provider-azure v1.1.26+vmware.1、
v1.23.23+vmware.1、
v1.24.10+vmware.1
v1.1.26+vmware.1、
v1.23.23+vmware.1、
v1.24.10+vmware.1
cloud_provider_vsphere

v1.24.6+vmware.1、
v1.26.2+vmware.1、
v1.25.3+vmware.1

v1.24.6+vmware.1*
v1.26.2+vmware.1*
v1.25.3+vmware.1*

cluster-api-provider-azure v1.9.2+vmware.1 v1.9.2+vmware.1*
cluster_api v1.4.5+vmware.1* v1.4.2+vmware.3*
cluster_api_aws v2.1.3+vmware.0 v2.1.3+vmware.0*
cluster_api_vsphere v1.7.1+vmware.0* v1.7.0+vmware.0*
cni_plugins v1.1.1+vmware.28* v1.1.1+vmware.23*
configmap-reload v0.8.0+vmware.3* v0.8.0+vmware.2*
containerd v1.6.18+vmware.1 v1.6.18+vmware.1
coredns v1.9.3+vmware.16* v1.9.3+vmware.11*
crash-diagnostics v0.3.7+vmware.7 v0.3.7+vmware.7*
cri_tools v1.25.0+vmware.10* v1.25.0+vmware.6*
csi_attacher v4.2.0+vmware.4*
v4.0.0+vmware.1、
v3.5.0+vmware.1、
v3.4.0+vmware.1、
v3.3.0+vmware.1
v4.2.0+vmware.2*
v4.0.0+vmware.1*
v3.5.0+vmware.1、
v3.4.0+vmware.1、
v3.3.0+vmware.1
csi_livenessprobe v2.9.0+vmware.4*
v2.8.0+vmware.1、
v2.7.0+vmware.1、
v2.6.0+vmware.1、
v2.5.0+vmware.1、
v2.4.0+vmware.1
v2.9.0+vmware.2*
v2.8.0+vmware.1*
v2.7.0+vmware.1、
v2.6.0+vmware.1、
v2.5.0+vmware.1、
v2.4.0+vmware.1
csi_node_driver_registrar v2.7.0+vmware.4*
v2.7.0+vmware.2、
v2.6.3+vmware.1、
v2.6.2+vmware.1、
v2.5.1+vmware.1、
v2.5.0+vmware.1、
v2.3.0+vmware.1
v2.7.0+vmware.1*
v2.7.0+vmware.2*
v2.6.3+vmware.1*
v2.6.2+vmware.1*
v2.5.1+vmware.1、
v2.5.0+vmware.1、
v2.3.0+vmware.1
csi_provisioner v3.4.1+vmware.3*
v3.4.0+vmware.4*
v3.3.0+vmware.1、
v3.2.1+vmware.1、
v3.1.0+vmware.2
v3.4.1+vmware.2*
v3.4.0+vmware.2*
v3.3.0+vmware.1*
v3.2.1+vmware.1、
v3.1.0+vmware.2
dex 該当なし 削除
envoy v1.25.9+vmware.1* v1.25.6+vmware.1*
external-snapshotter v6.2.1+vmware.4*、v6.1.0+vmware.1、v6.0.1+vmware.1、
v5.0.1+vmware.1
v6.2.1+vmware.2*
v6.1.0+vmware.1*
v6.0.1+vmware.1、
v5.0.1+vmware.1
etcd v3.5.6+vmware.20* v3.5.6+vmware.14*
guest-cluster-auth-service v1.3.0_tkg.2 v1.3.0_tkg.2
image-builder v0.1.14+vmware.1 v0.1.14+vmware.1*
image-builder-resource-bundle v1.26.8+vmware.1-tkg.2* v1.26.5+vmware.2-tkg.1*
imgpkg v0.36.0+vmware.2 v0.36.0+vmware.2*
jetstack_cert-manager (cert-manager) v1.11.1+vmware.1 v1.11.1+vmware.1*
k8s-sidecar v1.22.4+vmware.2* v1.22.0+vmware.2*
v1.15.6+vmware.5、
v1.12.1+vmware.6
k14s_kapp (kapp) v0.55.0+vmware.2 v0.55.0+vmware.2*
k14s_ytt (ytt) v0.45.0+vmware.2 v0.45.0+vmware.2*
kapp-controller v0.45.2+vmware.1 v0.45.2+vmware.1*
kbld v0.37.0+vmware.2 v0.37.0+vmware.2*
kube-state-metrics v2.8.2+vmware.1 v2.8.2+vmware.1*
kube-vip v0.5.12+vmware.1 v0.5.12+vmware.1
kube-vip-cloud-provider v0.0.5+vmware.1、
v0.0.4+vmware.4
v0.0.5+vmware.1*
v0.0.4+vmware.4
kubernetes v1.26.8+vmware.1*
v1.25.13+vmware.1*
v1.24.17+vmware.1*
v1.26.5+vmware.2*
v1.25.10+vmware.2*
v1.24.14+vmware.2
kubernetes-csi_external-resizer v1.7.0+vmware.4*
v1.6.0+vmware.1、
v1.5.0+vmware.1、
v1.4.0+vmware.1
v1.7.0+vmware.2*
v1.6.0+vmware.1*
v1.5.0+vmware.1*
v1.4.0+vmware.1
kubernetes-sigs_kind v1.26.8+vmware.1-tkg.2_v0.17.0*
v1.25.13+vmware.2-tkg.1_v0.17.0*
v1.24.17+vmware.2-tkg.1_v0.17.0*
v1.26.5+vmware.2-tkg.1_v0.17.0*
v1.25.10+vmware.2-tkg.1_v0.17.0*
v1.24.14+vmware.2-tkg.1_v0.17.0*
kubernetes_autoscaler v1.26.2+vmware.1 v1.26.2+vmware.1*
load-balancer-and-ingress-service (AKO) v1.9.3+vmware.2-tkg.1 v1.9.3+vmware.2-tkg.1*
metrics-server v0.6.2+vmware.1 v0.6.2+vmware.1
pinniped v0.24.0+vmware.1-tkg.1 v0.24.0+vmware.1-tkg.1*
pinniped-post-deploy v0.24.0+vmware.1 v0.24.0+vmware.1*
prometheus_node_exporter v1.5.0+vmware.3* v1.5.0+vmware.2*
pushgateway v1.5.1+vmware.3* v1.5.1+vmware.2*
sonobuoy v0.56.16+vmware.2 v0.56.16+vmware.2*
tanzu-framework v0.30.2* v0.30.2*
tanzu-framework-addons v0.30.2* v0.30.2*
tanzu-framework-management-packages v0.30.2* v0.30.2*
tkg-bom v2.3.1* v2.3.0*
tkg-core-packages v1.26.8+vmware.1-tkg.2* v1.26.8+vmware.2-tkg.1*
tkg-standard-packages v2023.10.16* v2023.7.13*
tkg-storageclass-package v0.30.2* v0.30.2*
tkg_telemetry v2.3.1+vmware.3* v2.3.0+vmware.2*
velero v1.10.3+vmware.1 v1.10.3+vmware.1*
velero-mgmt-cluster-plugin* v0.2.0+vmware.1 v0.2.0+vmware.1*
velero-plugin-for-aws v1.6.2+vmware.1 v1.6.2+vmware.1*
velero-plugin-for-csi v0.4.3+vmware.1 v0.4.3+vmware.1*
velero-plugin-for-microsoft-azure v1.6.2+vmware.1 v1.6.2+vmware.1*
velero-plugin-for-vsphere v1.5.1+vmware.1 v1.5.1+vmware.1*
vendir v0.33.1+vmware.2 v0.33.1+vmware.2*
vsphere_csi_driver v3.0.1+vmware.4* v3.0.1+vmware.2*

* 以前のリリース以降の新しいコンポーネントまたはバージョンアップを示します。TKG v2.3.0 は v2.3.1 より前、TKG v2.2.0 は v2.3.0 より前です。

TKG v2.3 に同梱されているソフトウェア コンポーネント バージョンのリストについては、imgpkg を使用してリポジトリ バンドルをプルし、その内容を一覧表示します。たとえば、TKG v2.3.1 の Tanzu Standard リポジトリに同梱されているコンポーネント バージョンを一覧表示するには、次のコマンドを実行します。

imgpkg pull -b projects.registry.vmware.com/tkg/packages/standard/repo:v2023.10.16 -o standard-2023.10.16

次のようなローカル BOM ファイルには、パッケージのバージョンも表示されますが、最新ではない可能性があります。

  • ~/.config/tanzu/tkg/bom/tkg-bom-v2.3.1.yaml
  • ~/.config/tanzu/tkg/bom/tkr-bom-v1.26.8+vmware.2-tkg.1.yaml

サポートされるアップグレード パス

TKG アップグレード パスでは、v2.3 が v2.2.0 のすぐ後に続きます。

Tanzu Kubernetes Grid v2.3.x には v2.2.x からのみアップグレードできます。v2.2.x より前のバージョンから Tanzu Kubernetes Grid v2.3.x にアップグレードする場合は、まず v2.2.x にアップグレードする必要があります。

ワークロード クラスタの Kubernetes バージョンをアップグレードするときに、マイナー バージョンをスキップすることはできません。たとえば、Tanzu Kubernetes クラスタを v1.24.x から v1.26.x に直接アップグレードすることはできません。クラスタを v1.26.x にアップグレードする前に、v1.24.x クラスタを v1.25.x にアップグレードする必要があります。

リリース日

Tanzu Kubernetes Grid v2.3 のリリース日は次のとおりです。

  • v2.3.1:2023 年 11 月 9 日
  • v2.3.0:2023 年 8 月 1 日

Tanzu Kubernetes Grid v2.3 での動作の変更

Tanzu Kubernetes Grid v2.3 では、以前の最新リリースである v2.2.0 と比較して、次の新しい動作が導入されています。

  • Carvel ツールは専用のダウンロード バンドルに同梱されています。詳細については、「Carvel ツールのインストール」を参照してください。
  • Pinniped を介して ID およびアクセス管理に OIDC ID プロバイダ (IDP) を使用する場合は、リフレッシュ トークンを発行するように OIDC IDP を構成する必要があります。

    • これには、OIDC IDP で追加の構成が必要になる場合があります。
    • Okta の例については、「ID 管理の構成」を参照してください。
    • OIDC IDP がリフレッシュ トークンを返すために追加の範囲またはパラメータを必要とする場合は、必要な範囲またはパラメータを使用して OIDC_IDENTITY_PROVIDER_SCOPES および OIDC_IDENTITY_PROVIDER_ADDITIONAL_AUTHORIZE_PARAMS を構成します。
  • Tanzu Kubernetes Grid は、LDAP ID プロバイダに Dex を使用しなくなりました。「構成ファイル変数リファレンス」の「ID プロバイダ - LDAP」セクションにリストされている各構成変数は、Pinniped LDAPIdentityProvider カスタム リソースの構成設定に対応するようになりました。LDAP ID プロバイダを使用するように構成された管理クラスタを Tanzu Kubernetes Grid v2.3 にアップグレードする前に、「(LDAP のみ)LDAP 設定の更新」の説明に従って LDAP 設定を更新します。管理クラスタを v2.3 にアップグレードするときに、既存のすべての LDAP 設定が新しい Pinniped 形式に自動的に移行されます。
  • Velero v1.10 では、以前のバージョンの TKG に付属していた Velero のバージョンと比較して、互換性を破る変更が導入されています。Velero v1.9.x から v1.10 にアップグレードするときに発生するこれらの互換性を破る変更を軽減する方法については、「Velero のアップグレード」を参照してください。
  • AWS で Tanzu Kubernetes Grid を v2.3 にアップグレードする場合、Tanzu CLI のアップグレード後、管理クラスタのアップグレード前に、tanzu mc permissions aws set を実行する必要があります。詳細については、「クラスタのアップグレードの準備」の [AWS] タブを参照してください。
  • カスタム ClusterClass オブジェクト定義を作成するときに、Tanzu Framework リポジトリからデフォルトのマニフェストをダウンロードしなくなります。デフォルトのマニフェストは、管理クラスタを作成するか、Tanzu CLI をインストールするときに使用できます。あるいは、TKG イメージ リポジトリからプルすることができます。詳細については、「カスタム ClusterClass の作成」を参照してください。
  • マイナー バージョンでサポートされている最新のパッチよりも古い Kubernetes パッチ バージョンを使用してワークロード クラスタを展開する場合は、クラスタを展開する前に、その TKr に ConfigMap オブジェクトを作成する必要があります。「複数の Kubernetes バージョン」ページの「Kubernetes クラスタの展開」を参照してください。

将来の動作変更についての通知

このセクションでは、TKG v2.3 リリース以降の将来のリリースで有効になる動作の変更について、事前に通知します。

非推奨に関する通知

tanzu login コマンドは、TKG の今後のリリースで削除される予定です。このコマンドは、tanzu context コマンドに置き換えられます。詳細については、VMware Tanzu CLI のドキュメントの「tanzu context」を参照してください。

ユーザー ドキュメント

TKG 2.3 スタンドアローン管理クラスタの展開と管理』には、スタンドアローン管理クラスタに固有のトピックが含まれています。これは TKG を vSphere with Tanzu スーパーバイザーとともに使用することには関連しません。

詳細については、「VMware Tanzu Kubernetes Grid のドキュメント」ページの「お客様の展開に適した TKG ドキュメントを見つける」を参照してください。

解決した問題

v2.3.1 で解決済み

Tanzu Kubernetes Grid v2.3.1 では、文書化されていないユーザーの問題とバグが解決されています。

v2.3.0 で解決済み

以前の Tanzu Kubernetes Grid リリースの「既知の問題」として記載された次の問題は、Tanzu Kubernetes Grid v2.3 で解決されています。

  • vSphere 8 で IPv6 ネットワークがサポートされない

    TKG v2.3 は vSphere 8 で IPv6 ネットワークをサポートしませんが、「IPv6 ネットワーク」で説明するように、vSphere 7 の Kube-Vip を使用した単一スタック IPv6 ネットワークをサポートします。

  • クラスタの自動スケーラが、想定されるキーを MachineDeployment に追加しない

    クラスタの自動スケーラが有効になっているクラスタを作成する場合、MachineDeploymentmetadata.annotations に想定されるキー cluster.x-k8s.io/cluster-api-autoscaler-node-group-max-sizecluster.x-k8s.io/cluster-api-autoscaler-node-group-min-size は追加されません。

  • ClusterClass 構成にワーカー ノードのロールアウト変数が見つからない

    ワークロード クラスタ MachineDeployments のロールアウト戦略を設定するために使用する WORKER_ROLLOUT_STRATEGY 変数が、すべてのターゲット プラットフォームの ClusterClass 構成に見つかりませんでした。WORKER_ROLLOUT_STRATEGY 変数をクラスベースのクラスタとレガシーのプランベースのクラスタに設定できるようになりました。詳細については、「構成ファイル変数リファレンス」の「GPU 対応クラスタ」を参照してください。

  • AWS のワークロード クラスタ ノード プールは、スタンドアローン管理クラスタと同じアベイラビリティ ゾーンにある必要があります。

    管理クラスタが配置されている場所とは異なる az で構成されたノード プールを作成すると、tanzu cluster node-pool list によって一覧表示されるように、新しいノード プールがステータス ScalingUp で停止したままになり、Ready 状態に到達しない場合があります。

  • スタンドアローン管理クラスタを再作成しても Pinniped 認証がリストアされない

    管理およびワークロード クラスタ インフラストラクチャのバックアップおよびリストア(テクニカル プレビュー)」の説明に従ってスタンドアローン管理クラスタを再作成すると、ユーザーは Pinniped 認証を介してワークロード クラスタにログインできなくなります。

  • 実行 ID が 1000000 を超えると、Harbor CVE のエクスポートに失敗することがある

    TKG v2.2 用にパッケージ化されたバージョンだった Harbor v2.7.1 には、実行プライマリ キーの自動増分 ID が 1000000 を超えると、CVE レポートのエクスポートが「404 page not found」というエラーになるという既知の問題があります。

  • tanzu package available get--default-values-file-output オプションによって、Harbor パッケージ用の不完全な構成テンプレート ファイルが出力される

    tanzu package available get harbor.tanzu.vmware.com/PACKAGE-VERSION --default-values-file-output FILE-PATH を実行すると、Harbor パッケージ用の不完全な構成テンプレート ファイルが作成されます。

  • クラスベースのクラスタの自動スケーラに手動注釈が必要になる

    クラスタ API のラベル伝達の問題により、クラスベースのワークロード クラスタのクラスタ構成ファイルの AUTOSCALER_MIN_SIZE_* および AUTOSCALER_MAX_SIZE_* 設定がクラスタの MachineDeployment オブジェクトに設定されません。手動で追加する必要があります。

  • クラスベースのクラスタ名には、NSX ALB をロード バランサ サービスまたは入力方向コントローラとした、25 文字の制限がある

    NSX Advanced Load Balancer (ALB) が、スタンドアローン管理クラスタで、クラスベースのクラスタのロード バランサ サービスまたは入力方向コントローラとして使用されている場合、そのアプリケーション名には、クラスタ名と、AKO パッケージの内部名である load-balancer-and-ingress-service の両方が含まれます。組み合わせた名前が Avi Controller アプリケーションの 64 文字の制限を超えると、tanzu cluster create コマンドが、avi-system 名前空間が見つからなかったことを示すエラーで失敗することがあります。

    回避策:NSX ALB をロード バランサまたは入力方向コントローラとして使用する場合は、クラスベースのクラスタ名の長さを 25 文字以下に制限します。

既知の問題

Tanzu Kubernetes Grid v2.3.x の既知の問題は次のとおりです。v2.3.0 の既知の問題で、それ以降の v2.3.x パッチ リリースで解決されたものは、修正されたパッチ リリースの「解決した問題」に記載されています。

頻繁に発生する問題の解決策については、「管理クラスタの問題のトラブルシューティング」、「ワークロード クラスタの問題のトラブルシューティング」、または「VMware ナレッジベースの記事」を参照してください。

パッケージ

  • 単一ノード クラスタで標準リポジトリの追加に失敗する

    tanzu package repository add を実行して、tanzu-standard リポジトリを、「vSphere 上の単一ノード クラスタ」で説明されているタイプの単一ノード クラスタに追加すると、失敗する場合があります。

    これは、単一ノード クラスタがコア アドオンとして cert-manager を使用して起動するためです。これは、tanzu-standard リポジトリ内の別の cert-manager パッケージと競合します。

    回避策tanzu-standard リポジトリを追加する前に、「cert-manager のインストール」の説明に従って、cert-manager パッケージの注釈にパッチを適用してください。

クラスタ操作

  • AWS および Azure で、オブジェクト仕様を使用したワークロード クラスタの作成がゾーン/リージョン エラーで失敗する

    デフォルトでは、AWS または Azure 上で、--file に渡されたクラスベースのクラスタ オブジェクト仕様で tanzu cluster create を実行すると、Tanzu CLI は vSphere のアベイラビリティ ゾーンのみに関連するリージョンとゾーンの検証を実行します

    回避策 AWS または Azure でクラスベースのクラスタを作成する場合は、「クラスベースのクラスタの作成」で説明されている 1 段階または 2 段階プロセスのどちらを使用するかに基づいて、次のいずれかを実行します。

    • 1 段階features.cluster.auto-apply-generated-clusterclass-based-configurationtrue に設定し、--dry-runtanzu cluster create コマンドに渡さないで、説明のように 1 段階プロセスに従います。

    • 2 段階:2 段階としてオブジェクト仕様を使用して tanzu cluster create を実行する前に、ローカル環境で SKIP_MULTI_AZ_VERIFYtrue に設定します。

      export SKIP_MULTI_AZ_VERIFY=true
      
  • キャパシティが制限されたクラスタを使用している場合、コンポーネントのスケジュール設定に失敗する

    管理クラスタとワークロード クラスタで、単一の制御プレーン ノード、単一のワーカー ノード、または小規模から中規模のクラスタを含むクラスタを展開すると、リソース スケジュールの競合が発生する可能性があります。

    回避策:単一ノード クラスタまたは合計 3 つ以上のノードを持つクラスタを使用します。

  • Antrea CNI を使用して、最新でない TKr バージョンに基づいた新しいワークロード クラスタの作成を実行できない

    Antrea CNI を使用する新しいワークロード クラスタを作成して、「Tanzu Kubernetes Grid v2.2 でサポートされる Kubernetes バージョン」に記載されている以前のバージョンの TKG に付属する Kubernetes バージョン(TKG v1.6.1 のデフォルトの Kubernetes バージョンであった Kubernetes v1.23.10 など)を実行することはできません。

    回避策:Kubernetes 1.26.8、1.25.13、または 1.24.17 を実行するワークロード クラスタを作成します。Kubernetes プロジェクトは、現在のマイナー バージョンの最新のパッチ バージョンでコンポーネントを実行することを推奨します。

  • 管理クラスタの制御プレーン ノードを偶数にスケーリングできない

    管理クラスタで tanzu cluster scale を実行し、--controlplane-machine-count オプションに偶数を渡すと、TKG は制御プレーン ノードをスケーリングせず、CLI はエラーを出力しません。クォーラムを維持するには、制御プレーン ノードの数を常に奇数にする必要があります。

    回避策 制御プレーン ノードの数を偶数にスケーリングしないでください。

ネットワーク

v4.0 以降では、VMware NSX-T Data Center の名前が「VMware NSX」に変更されました。

  • 一部の NSX ALB 構成変数が機能しない

    TKG v2.3 では、管理クラスタの構成変数 AVI_DISABLE_INGRESS_CLASSAVI_DISABLE_STATIC_ROUTE_SYNCAVI_INGRESS_DEFAULT_INGRESS_CONTROLLER は機能しません。

    基盤となるプロパティのいずれかをデフォルト以外の値 true に設定するには、次に説明するように、管理クラスタの作成後に管理クラスタの 2 つの AKODeploymentConfig 構成オブジェクトを手動で編集する必要があります。

    回避策:管理クラスタの install-ako-for-all および install-ako-for-management-cluster オブジェクトを編集します。

    1. kubectl コンテキストを管理クラスタに設定します。

      kubectl config use-context MGMT-CLUSTER-CONTEXT
      
    2. install-ako-for-all および install-ako-for-management-cluster 構成を編集します。

      kubectl edit adc install-ako-for-all
      
      kubectl edit adc install-ako-for-management-cluster
      
    3. 構成で、必要に応じて次のプロパティを設定します。

      • extraConfigs.ingress.disableIngressClass - for config var AVI_DISABLE_INGRESS_CLASS
      • extraConfigs.disableStaticRouteSync - for config var AVI_DISABLE_STATIC_ROUTE_SYNC
      • extraConfigs.ingress.defaultIngressController - for config var AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER
    4. 保存して終了します。

    これらの設定は、管理クラスタが後で作成するワークロード クラスタに適用されます。

  • 管理クラスタで NSX ALB NodePortLocal 入力方向モードがサポートされない

    TKG v2.3 では、管理クラスタへのトラフィックに対して NSX Advanced Load Balancer (ALB) を入力方向モード NodePortLocal のサービス タイプとして実行することはできません。

    この問題は、「NodePortLocal モードでの L7 入力方向」で説明されているように、ワークロード クラスタへの NodePortLocal 入力方向のサポートには影響しません。

    回避策:AVI_INGRESS_SERVICE_TYPENodePort または ClusterIP に設定して管理クラスタを構成します。デフォルトは NodePort です。

  • 古いバージョンの NSX-T と Linux カーネル 5.8 を使用する Photon 3 または Ubuntu 仮想マシンで、管理クラスタの作成が失敗するか、パフォーマンスが低下する

    次のインフラストラクチャと構成を使用して管理クラスタを展開すると、失敗したり、ポッド間のトラフィックが制限されたりすることがあります。

    • 次のいずれかのバージョンの NSX-T を使用した vSphere
      • 拡張データパスが有効な NSX-T v3.1.3
      • v3.1.3 以前の NSX-T v3.1.x
      • v3.0.2 ホット パッチ以前の NSX-T v3.0.x
      • NSX-T v2.x。これには、NSX-T v2.5 を使用する Azure VMware Solution (AVS) v2.0 が含まれます。
    • 基本イメージ:Linux カーネル 5.8 を使用する Photon 3 または Ubuntu

    この組み合わせにより、古いバージョンの NSX-T と Antrea CNI の間でチェックサムの問題が発生します。

    TMC:管理クラスタが Tanzu Mission Control (TMC) に登録されている場合、この問題の回避策はありません。それ以外の場合は、以下の回避策を参照してください。

    回避策:

    • ANTREA_DISABLE_UDP_TUNNEL_OFFLOAD"true" に設定して構成されたワークロード クラスタを展開します。この設定により、Antrea の UDP チェックサム オフロードが無効化され、一部のアンダーレイ ネットワークおよび物理 NIC ネットワーク ドライバに関する既知の問題が回避されます。
    • 拡張データパスを有効にせずに、NSX-T v3.0.2 ホット パッチ、v3.1.3、またはそれ以降にアップグレードします。
    • Linux カーネル 5.9 以降を使用する Ubuntu 基本イメージを使用します。

ストレージ

  • ワークロード クラスタが複数のデータストアにストレージを分散できない

    データストア クラスタを使用するクラスタの展開」で説明するように、ワークロード クラスタを有効にして複数のデータストアにストレージを分散することはできません。1 つのデータストア クラスタ内の複数のデータストアにタグを付ける場合、ワークロード クラスタのストレージ ポリシーの基準として、ワークロード クラスタはデータストアの 1 つのみを使用します。

    回避策:なし

Tanzu CLI

  • HTTP/HTTPS プロキシ パスワードで英数字以外の文字を使用できない

    CLI を使用して管理クラスタを展開する場合、英数字以外の文字 (# ` ^ | / ? % ^ { [ ] } \ " < >) をパスワードに使用することはできません。また、ユーザー インターフェイスを使用して管理クラスタを展開する場合、HTTP/HTTPS プロキシ パスワードに英数字以外の文字を使用することはできません。

    回避策:CLI を使用して管理クラスタを展開する場合、# ` ^ | / ? % ^ { [ ] } \ " < > を除く英数字以外の文字をパスワードに使用できます。

  • ARM プロセッサを搭載した macOS マシンで Tanzu CLI が機能しない

    Tanzu CLI v0.11.6 は、ARM (Apple M1) チップを搭載した macOS マシン([Finder] > [この Mac について (About This Mac)] > [概要 (Overview)] で特定)では動作しません。

    回避策:Linux または Windows OS のブートストラップ マシン、または Intel プロセッサを搭載した macOS マシンを使用します。

  • Tanzu CLI が tanzu management-cluster osimage を一覧表示する

    management-cluster コマンド グループは、tanzu management-cluster osimage を一覧表示します。この機能は現在開発中で、今後の使用のために予約されています。

    回避策tanzu management-cluster osimage は使用しないでください。

vSphere

  • クラスタ制御プレーンが使用可能になるまで待機中に、管理クラスタを vSphere 7 に展開すると失敗する

    管理クラスタを vSphere 7 に展開するときに仮想マシン ネットワークを指定すると、エラー unable to set up management cluster: unable to wait for cluster control plane available: control plane is not available yet で展開が失敗します。

    回避策:ネットワーク「仮想マシン ネットワーク」には、VsVip および ServiceEngine の固定 IP アドレスを持つ複数の構成済みサブネットがあります。検出されたサブネットを無視し、仮想サービスをサービス エンジンに配置できるようにするには、仮想マシン ネットワークで exclude_discovered_subnets を「True」に設定します。

  • 仮想マシンが割り当てられているアベイラビリティ ゾーンを削除することができる

    仮想マシンを含むアベイラビリティ ゾーンを削除すると、その後仮想マシンを削除できなくなります。

    回避策:アベイラビリティ ゾーンを削除する前に、すべての仮想マシンを削除します。

  • VPXD セッションの枯渇が原因でワークロード クラスタの作成に失敗する

    vSphere でワークロード クラスタを作成すると、次のエラーが表示されて作成が失敗します。

    vSphere config validation failed: failed to get VC client: failed to create vc client: Post "https://address/sdk": EOF ". VCenter vpxd.log report error: Out of HTTP sessions: Limited to 2000
    

    これは、vCenter Server セッションの枯渇が原因で発生します。

    回避策:VMware KB 50114010を参照してください。

  • small ノードで作成されたノード プールが Provisioning で停止することがある

    small として構成されたノード SIZE で作成されたノード プールは、Provisioning 状態でスタックし、Running に進まない場合があります。

    回避策:ノード プールに少なくとも medium サイズのノードを構成します。

Windows

  • インターネットが制限された環境で Windows ワーカーがサポートされない

    VMware は、プロキシが設定された環境またはエアギャップされた環境での Windows ワーカー ノードを持つ TKG ワークロード クラスタをサポートしていません。

    回避策:VMware の担当者にお問い合わせください。一部の TKG ユーザーは、たとえばこの非公式リポジトリで説明されているように、Windows カスタム イメージをビルドし、オフライン環境で Windows ワーカーを使用してワークロード クラスタを実行しています。

Image-Builder

  • イメージ ビルド プロセス中に無視可能な goss テスト エラーが発生する

    Kubernetes Image Builder を実行してカスタム Linux カスタム マシン イメージを作成すると、goss テストの python-netifacespython-requests、および ebtables が失敗します。コマンド出力はエラーを報告します。エラーは無視できます。正常なイメージのビルドを妨げるわけではありません。

AVS

  • AVS での vSphere CSI ボリュームの削除に失敗することがある

    Azure vSphere Solution (AVS) で、vSphere CSI パーシステント ボリューム (PV) の削除に失敗することがあります。PV を削除するには、cns.searchable 権限が必要です。AVS のデフォルトの管理者アカウント [email protected] は、この権限で作成されていません。詳細については、「vSphere ロールと権限」を参照してください。

    回避策:AVS 上の vSphere CSI PV を削除するには、Azure サポートにお問い合わせください。

Tanzu Standard リポジトリ v2023.7.13

TKG v2.3 では、Tanzu Standard パッケージ リポジトリはバージョン管理され、TKG とは別に配布されます。バージョン管理は日付スタンプに基づきます。

TKG v2.3.0 および v2.3.1 の場合、TKG パッチ バージョンと、互換性のある最新の Tanzu Standard リポジトリ バージョンは同じ日付でリリースされます。

将来の Tanzu Standard リポジトリ バージョンは、TKG バージョンよりも頻繁に公開される可能性がありますが、すべてのパッチ バージョンは TKG のマイナー バージョンと Tanzu Standard の間の既存の互換性を維持します。

各 TKG v2.3 パッチ バージョンの、互換性のある最新の Tanzu Standard リポジトリ バージョンは次のとおりです。

Tanzu Standard リポジトリ パッケージのサポート

VMware は、VMware Tanzu Standard リポジトリで提供されるオプションのパッケージに対して次のことをサポートします。

  • オプションの VMware Tanzu Standard リポジトリに含まれているパッケージが Tanzu Kubernetes Grid に展開されるときに、VMware がパッケージのインストールとアップグレードの検証を行います。この検証は、パッケージのインストールとアップグレードに限定されますが、CVE に対処するために利用可能な更新が含まれます。バグ修正、機能強化、およびセキュリティ修正は、アップストリーム パッケージ プロジェクトで使用可能になった時点で新しいパッケージ バージョンで提供されます。
  • VMware は、Tanzu Standard リポジトリによって提供されるコンポーネントに対して、ランタイム レベルのサポートを提供しません。構成やパフォーマンスに関する問題のデバッグ、またはパッケージ自体のデバッグや修正は、VMware が提供するものではありません。
  • VMware は、VMware がサポートするパッケージ(Harbor、Contour、および Velero)が Tanzu Kubernetes Grid に展開されている場合、それらのパッケージに対してランタイム レベルのサポートを提供します。

Cert-manager v1.11.1

新機能

  • cert-manager v1.11.1 リリース ノートを参照してください
  • vmware_cert-manager パッケージには、アップストリーム jetstack_cert-manageracmesolver コンポーネントが含まれています。

サポートされているバージョン

TKG バージョン jetstack_cert-manager のバージョン vmware cert-manager パッケージのバージョン Kubernetes バージョンの互換性
2.3 v1.11.1 v1.11.1+vmware.1 1.21-1.27

コンポーネントのバージョン

cert manager v1.11.1 には、次のコンポーネント イメージ バージョンが含まれています。

  • quay.io/jetstack/cert-manager-cainjector:v1.11.1
  • quay.io/jetstack/cert-manager-controller:v1.11.1
  • quay.io/jetstack/cert-manager-webhook:v1.11.1
  • quay.io/jetstack/cert-manager-acmesolver:v1.11.1

廃止

TKG v2.3 では、次の cert manager のバージョンが廃止されました。

  • v1.5.3
  • v1.7.2
  • v1.10.2

Contour v1.24.4

新機能

  • Contour v1.24.0-4 のリリース ノートを参照してください。
  • 次のようなデータ値を使用して、DaemonSet(デフォルト)としてではなく、指定された数のレプリカを使用して、展開としてインストールするように Envoy を構成できます。
    envoy: 
      workload: 
        type: Deployment 
        replicas: 3
    
  • 次のようなデータ値を使用して、Contour ワークロードと Envoy ワークロード内の各コンテナにリソース要求または制限を指定できます。

    contour: 
      resources: 
        contour: 
          requests: 
            cpu: 250m 
            memory: 128Mi 
          limits: 
            cpu: 1 
    
            memory: 512Mi
    envoy:
      resources:
        envoy:
    # include requests and limits as desired
        shutdown-manager:
    # include requests and limits as desired 
    
  • data-values ファイルの構成値が検証されます。データ値にサポートされていない値を指定すると、エラーが発生します。

サポート対象の Kubernetes バージョン

Contour v1.24.4 は、Kubernetes v1.24 ~ v1.26 でサポートされています。Contour の互換性マトリックスを参照してください。

廃止

  • v1.24.4 より前のすべてのバージョンの Contour は、Tanzu Standard リポジトリ v2023.7.13 から削除されています。
  • Contour パッケージの data-values ファイルは、null 値を受け入れなくなりました。値が null に設定されている構成フィールドの場合は、値を完全に省略する必要があります。

External-csi-snapshot-webhook v6.1.0

新機能

  • external-csi-snapshot-webhook は TKG v2.3 の新しいパッケージです。
  • vSphere 8.0U2 スーパーバイザーを使用する TKG v2.3 は、スーパーバイザーおよび展開されるワークロード クラスタの CSI スナップショットをサポートしますが、最初に Tanzu CLI を使用して external-csi-snapshot-webhook v6.1.0 を明示的にインストールする必要があります。

サポートされているバージョン

TKG バージョン external-csi-snapshot-webhook バージョン 想定される Kubernetes バージョンの互換性 テスト済みの Kubernetes バージョン
2.3.0 6.1.0 1.18 - 最新 1.24

依存関係

  • external-csi-snapshot-webhook には、Kubernetes API サーバとの安全な X509 通信のために cert-manager が必要です。

コンポーネントのバージョン

external-csi-snapshot-webhook には、次のコンポーネント イメージ バージョンが含まれています。

  • registry.k8s.io/sig-storage/snapshot-validation-webhook:v6.1.0

外部 DNS v0.13.4

新機能

  • 外部 DNS v0.13.4 リリース ノートを参照してください。
  • 新しい createNamespace 構成フィールド。external-dns コンポーネントがインストールされる名前空間を作成するには、true に設定します。false に設定すると、パッケージ コンポーネントは既存の名前空間にインストールされます。

Fluent-bit v2.1.2

新機能

制限/既知の問題

  • AWS S3 にアクセスするための fluent-bit パッケージ ConfigMap の AWS 認証情報の環境変数はサポートされていません。
    • AWS 認証情報のサポートは、今後のリリースで導入する予定です。

Fluxcd コントローラ

新機能

次の Fluxcd コントローラ パッケージ リリース ノートを参照してください。

Grafana v9.5.1

新機能

コンポーネントのバージョン

Grafana v9.5.1 には、次のコンポーネント イメージ バージョンが含まれています。

  • grafana/grafana:9.5.1
  • kiwigrid/k8s-sidecar:1.22.0

Harbor v2.8.2

新機能

  • Harbor v2.8.2 リリース ノートを参照してください。
  • CVE により、次の Harbor バージョンとの TKG v2.3 の互換性が削除されました。
    • v2.2.3_vmware.1-tkg.1
    • v2.2.3_vmware.1-tkg.2
    • v2.3.3_vmware.1-tkg.1
    • v2.5.3_vmware.1-tkg.1
    • v2.7.1_vmware.1-tkg.1

コンポーネントのバージョン

Harbor v2.8.2 には、次のコンポーネント イメージ バージョンが含まれています。

  • harbor-core:v2.8.2
  • harbor-db:v2.8.2
  • harbor-exporter:v2.8.2
  • harbor-jobservice:v2.8.2
  • harbor-portal:v2.8.2
  • harbor-registryctl:v2.8.2
  • registry-photon:v2.8.2
  • notary-server-photon:v2.8.2
  • notary-signer-photon:v2.8.2
  • redis-photon:v2.8.2
  • trivy-adapter-photon:v2.8.2

Multus-CNI v4.0.1

新機能

  • シック プラグインの展開とアーキテクチャが導入されています。Multus-CNI v4.0.1 の新機能を参照してください。
  • デフォルト値を次のように変更します。

    namespace: kube-system 
    #! DaemonSet related configuration 
    daemonset: 
      resources: 
        limits: 
          cpu: 100m 
          memory: 50Mi 
        requests: 
          cpu: 100m 
          memory: 50Mi 
    configmap: 
      cniVersion: 0.3.1 
      multusConfigFile: auto 
    

Prometheus v2.43.0

新機能

コンポーネントのバージョン

Prometheus v2.43.0 には、次のコンポーネント イメージ バージョンが含まれています。

  • prom/prometheus:v2.43.0
  • prom/alertmanager:v0.25.0
  • prom/pushgateway:v1.5.1
  • jimmidyson/configmap-reload:v0.8.0
  • bitnami/kube-state-metrics:2.8.2
  • quay.io/prometheus/node-exporter:v1.5.0

Velero v1.10.0

新機能

  • Velero v1.10.0 リリース ノートを参照してください。
  • Kopia は、アップローダとして Restic を置き換えます。その結果、次のような互換性を破る変更が発生します。詳細については、Velero v1.10 変更ログの「互換性を破る変更」を参照してください。
    • restic daemonset の名前が node-agent に変更されました
    • ResticRepository CR の名前が BackupRepository に変更されました
    • velero restic repo コマンドの名前が velero repo に変更されました
    • velero-restic-credentials シークレットの名前が velero-repo-credentials に変更されました
    • default-volumes-to-restic パラメータの名前が default-volumes-to-fs-backup に変更されました
    • restic-timeout パラメータの名前が fs-backup-timeout に変更されました
    • default-restic-prune-frequency パラメータの名前が default-repo-maintain-frequency に変更されました
  • 統合されたリポジトリと Kopia 統合の設計」の説明に従って、バックアップ リポジトリを統合し、データ ムーバーから分離します。
  • 既存の Restic パスの横に Kopia パスを追加してファイルシステムのバックアップをリファクタリングし、uploader-type 構成パラメータを介して両方をサポートします。
  • BackupItemActionRestoreItemAction および VolumeSnapshotterAction プラグインをバージョン v1 に移行し、複雑なデータ移動タスクなど、後方互換性をサポートしない可能性のある将来のプラグインの変更を可能にします。「プラグインのバージョン管理」を参照してください。
  • 特定のボリューム スナップショットの場所の認証情報を保存するオプションを追加します。「バックアップ ストレージの場所とボリューム スナップショットの場所」を参照してください。
  • エラー処理の保護コードと除外チェックをスキップする機能により、CSI スナップショットの堅牢性が向上し、CSI スナップショットがさまざまなバックアップ リソース フィルタで機能するようになります。
  • バックアップ スケジュールの一時停止/一時停止解除をサポートします。
    • -paused フラグを velero schedule create に渡して、一時停止したスケジュールを作成します。
    • velero schedule pausevelero schedule unpause は既存のスケジュールの一時停止と一時停止解除を行います。

サポートされているバージョン

TKG バージョン Velero バージョン 想定される Kubernetes バージョンの互換性 テスト済みの Kubernetes バージョン
2.3 (Halifax) 1.10 1.18-最新 1.22.5、1.23.8、1.24.6、および 1.25.1

コンポーネントのバージョン

Velero v1.10.3 には、次のコンポーネント イメージ バージョンが含まれています。

  • velero/velero:v1.10.3
  • velero/velero-plugin-for-aws:v1.6.2
  • velero/velero-plugin-for-csi:v0.4.3
  • velero/velero-plugin-for-microsoft-azure:v1.6.2
  • vsphereveleroplugin/velero-plugin-for-vsphere:v1.5.1

CVE を修正するために、Velero ランタイムと依存関係のバージョンは次のように更新されます。

  • Go ランタイム v1.18.8
  • 公式の Restic バイナリをパッケージ化する代わりに Go 1.18.8 を使用してRestic v0.13.1 をコンパイル
  • コア依存ライブラリのバージョンを更新

アップグレード

ファイルシステムのバックアップの変更により、以前のアップグレード手順は機能しません。新しいアップグレード手順については、「Velero 1.10 へのアップグレード」を参照してください。

制限/既知の問題

  • Kopia バックアップは、S3 互換ストレージの自己署名証明書をサポートしていません。この問題を追跡するには、「Velero 問題 #5123」および「Kopia 問題 #1443」を参照してください。
  • vSphere Plugin for Velero 問題 #485」で説明されているように、Velero バージョンの最新の vSphere プラグインでは動作しません。この問題が解決されるまで、Velero v1.1.0 と連携するように vSphere プラグインをアップグレードしないでください。

Whereabouts v0.6.1

新機能

  • デュアルスタック IP アドレスの割り当てを構成するための ipRanges をサポートします。Whereabouts リポジトリ README の「IPv6 構成の例」を参照してください。
check-circle-line exclamation-circle-line close-line
Scroll to top icon