特に記載がある場合を除き、これらのリリース ノートは、Tanzu Kubernetes Grid (TKG) のすべての v2.3.x パッチ バージョンに適用されます。
TKG v2.3 は、バージョン管理された TKG スタンドアローン管理クラスタを展開するダウンロード可能な Tanzu CLI パッケージとして配布されます。TKG v2.3 は、vSphere、AWS、Azure など、複数のインフラストラクチャで実行できるスタンドアローン管理クラスタを使用したクラスベースのワークロード クラスタの作成と管理をサポートします。
重要vSphere 8.0.1c 以降の vSphere with Tanzu スーパーバイザーは TKG v2.2 を実行します。vSphere 8 の以前のバージョンでは TKG v2.0 が実行されますが、これはスーパーバイザーからは独立してリリースされていませんでした。TKG 2.x を実行するスタンドアローン管理クラスタは、TKG 2.1 以降で使用できます。以前のバージョンの TKG がスーパーバイザーに組み込まれているため、スタンドアローン TKG 2.3 管理クラスタを使用している場合に使用可能な機能の一部は、vSphere with Tanzu スーパーバイザーを使用してワークロード クラスタを作成している場合には使用できません。以降の TKG リリースは、今後の vSphere アップデート リリースでスーパーバイザーに組み込まれる予定です。その結果、特定の時点で最新の vSphere with Tanzu バージョンに組み込まれた TKG のバージョンは、TKG の最新のスタンドアローン バージョンほど新しいバージョンではない可能性があります。ただし、すべての TKG v2.x リリースと互換性のある Tanzu CLI のバージョンは、vSphere 8 のすべてのリリースのスーパーバイザーでの使用が完全にサポートされています。たとえば、Tanzu CLI v1.0.0 は、スーパーバイザーが提供する TKG 2.2 プラグインと完全に後方互換性があります。
TKG 2.x および vSphere 8 の vSphere with Tanzu スーパーバイザーと互換性のある Tanzu CLI のバージョンは、vSphere 7 のスーパーバイザー クラスタと互換性がありません。vSphere 7 の vSphere with Tanzu スーパーバイザー クラスタで Tanzu CLI を使用するには、TKG v1.6 の Tanzu CLI バージョンを使用します。スーパーバイザーで TKG 2.x と互換性のある Tanzu CLI のバージョンを使用するには、vSphere 8 にアップグレードします。vSphere with Tanzu スーパーバイザー クラスタが存在しない場合は、スタンドアローン TKG 2.x 管理クラスタを vSphere 7 に展開できます。Tanzu CLI と VMware 製品の互換性の詳細については、Tanzu CLI のドキュメントを参照してください。
Tanzu Kubernetes Grid v2.3.x には、次の新機能が含まれています。
Tanzu Kubernetes Grid v2.3.1 の新機能:
--vsphere-vm-template-name
オプションを使用してターゲット OVA テンプレートを指定できます。Tanzu Kubernetes Grid v2.3.0 の新機能:
tiny
TKr を追加する必要はありません。POD_SECURITY_STANDARD_*
および Cluster
仕様の podSecurityStandard
設定を使用して構成できます。
kubectl get inclusterippool
は、FREE
および USED
アドレス数を出力します。InClusterIPPool
オブジェクト構造は、以前の TKG バージョンとは異なります。クラスタを v2.3 にアップグレードすると、IP アドレス プールが新しい構造に変換されます。VSPHERE_MTU
は、vSphere 上の管理クラスタ ノードとワークロード クラスタ ノードの最大転送ユニット (MTU) のサイズを設定します。「クラスタ ノード MTU の構成」を参照してください。CONTROL_PLANE_NODE_NAMESERVERS
と WORKER_NODE_NAMESERVERS
が安定した状態になりました。これらの変数は、Ubuntu または Photon で実行されているノードに設定できます。Windows はサポートされていません。ユースケースの例については、「ノード IP アドレス管理」を参照してください。--max-unhealthy
および --machine-deployment
。「ワークロード クラスタのマシン健全性チェックの管理」を参照してください。tanzu mc credentials update
オプション --vsphere-thumbprint
を使用すると、Tanzu CLI を使用して、vSphere 上の管理クラスタおよびワークロード クラスタの vCenter Server の TLS サムプリントを更新できます。「クラスタ認証情報の更新」を参照してください。Pinniped コンポーネントは LDAP ID プロバイダに Dex を使用しなくなり、次のように構成が変更されます。
LDAP_GROUP_SEARCH_SKIP_ON_REFRESH
LDAP_BIND_DN
と LDAP_BIND_PASSWORD
が必要になりました。LDAP_GROUP_SEARCH_NAME_ATTRIBUTE
のデフォルトは dn
です。LDAP_USER_SEARCH_FILTER
と LDAP_GROUP_SEARCH_FILTER
は、Pinniped で使用される形式で設定する必要があります。LDAP_USER_SEARCH_USERNAME
、LDAP_USER_SEARCH_EMAIL_ATTRIBUTE
、および LDAP_GROUP_SEARCH_GROUP_ATTRIBUTE
。Dex の削除によって、TKG v2.3 にアップグレードする前に管理クラスタの LDAP 設定を変更する必要があります。「(LDAP のみ)LDAP 設定の更新」を参照してください。
新しい構成変数と更新された構成変数の詳細については、「構成ファイル変数リファレンス」の「ID プロバイダ - LDAP」を参照してください。
grafana
コンテナ イメージが一覧表示されなくなります。その他の Tanzu Standard コンポーネントは、今後のリリースで BoM から削除される予定です。
TKG v2.3 では、Tanzu Standard パッケージ リポジトリはバージョン管理され、TKG とは別に配布されます。バージョン管理は日付スタンプに基づきます。詳細については、以下の Tanzu Standard リポジトリ v2023.7.13 を参照してください。
各 TKG v2.3 パッチ バージョンの、互換性のある最新のTanzu Standard リポジトリ バージョンのリリース ノートは次のとおりです。
TKG v2.2 以降、TKG および TKr(TKG の Kubernetes バージョンをパッケージ化)の古いパッチ バージョンに対する VMware のサポート ポリシーが変更されました。TKG v2.1 以前のマイナー バージョンの TKG のサポート ポリシーには変更はありません。
以下の最初の 2 つのセクションでは、現在サポートされているすべてのバージョンの TKG および TKr のサポートを、それぞれに適用されるサポート ポリシーに基づいてまとめています。
以下の 3 番目のセクションでは、Kubernetes v1.26、v1.25、および v1.24 TKr でサポートされている Tanzu Standard リポジトリ内のパッケージのバージョンを示します。
Tanzu Kubernetes Grid の各バージョンでは、管理クラスタの Kubernetes バージョンと、Tanzu Kubernetes リリース (TKr) として配布される追加の Kubernetes バージョンのサポートが追加されています(ただし、既知の問題に記載されているものは除く)。
マイナー バージョン: VMware は、リリース時に Kubernetes v1.26、v1.25、および v1.24 を使用する TKG v2.3 をサポートします。TKG v2.1 がジェネラル サポート終了のマイルストーンに達すると、VMware は TKG で Kubernetes v1.24 をサポートしなくなります。TKG v2.2 がジェネラル サポート終了のマイルストーンに達すると、VMware は TKG で Kubernetes v1.25 をサポートしなくなります。
パッチ バージョン: VMware は、マイナー バージョンの新しい TKr パッチを公開した後も、古いパッチ バージョンのサポートを 2 か月間保持します。これにより、ユーザーは 2 か月以内に新しい TKr パッチ バージョンにアップグレードすることになります。TKG v2.2 以降、VMware は、Kubernetes の以前のマイナー バージョンの TKr パッチ バージョンをすべてサポートしているわけではありません。
Tanzu Kubernetes Grid パッチ バージョンがサポートする TKr パッチ バージョンは以下のとおりです。
Tanzu Kubernetes Grid バージョン | 管理クラスタの Kubernetes バージョン | 指定された Kubernetes (TKr) バージョン |
---|---|---|
2.3.1 | 1.26.8 | 1.26.8, 1.25.13, 1.24.17 |
2.3.0 | 1.26.5 | 1.26.5、1.25.10、1.24.14 |
2.2.0 | 1.25.7 | 1.25.7、1.24.11、1.23.17 |
2.1.1 | 1.24.10 | 1.24.10、1.23.16、1.22.17 |
2.1.0 | 1.24.9 | 1.24.9、1.23.15、1.22.17 |
VMware は、次のように TKG バージョンをサポートします。
マイナー バージョン: VMware は、TKG の最新バージョンと 2 つ前のマイナー バージョンまでに適用される N-2 ライフサイクル ポリシーに従って TKG をサポートします。詳細については、『VMware Product Lifecycle Matrix』を参照してください。
パッチ バージョン: VMware は、以前のすべての TKG パッチ バージョンをサポートしているわけではありません。VMware が TKG の新しいパッチ バージョンをリリースした後も、古いパッチ バージョンのサポートは 2 か月間保持されます。これにより、ユーザーは 2 か月以内に新しい TKG パッチ バージョンにアップグレードすることになります。
TKG v2.3 の場合、Tanzu Standard リポジトリのパッケージ バージョンは、次のように、Kubernetes マイナー バージョン v1.26、v1.25、および v1.24 の TKr と互換性があります。
パッケージ | パッケージ バージョン | Kubernetes v1.26 TKr | Kubernetes v1.25 TKr | Kubernetes v1.24 TKr |
---|---|---|---|---|
Cert Manager cert-manager.tanzu.vmware.com |
1.11.1+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ |
Contour contour.tanzu.vmware.com |
1.24.4+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ |
外部 DNS external-dns.tanzu.vmware.com |
0.13.4+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
0.12.2+vmware.5-tkg.2-20230629 | ✔ | ✔ | ✔ | |
0.11.1+vmware.5-tkg.2-20230629 | ✖ | ✖ | ✔ | |
Fluent Bit fluent-bit.tanzu.vmware.com |
2.1.2+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ |
1.9.5+vmware.1-tkg.3-zshippable | ✔ | ✔ | ✔ | |
1.8.15+vmware.1-tkg.1 | ✖ | ✖ | ✔ | |
FluxCD ヘルプ コントローラ fluxcd-helm-controller.tanzu.vmware.com |
0.32.0+vmware.1-tkg.2-20230629 | ✔ | ✔ | ✔ |
0.21.0+vmware.1-tkg.1-zshippable | ✖ | ✖ | ✔ | |
FluxCD ソース コントローラ fluxcd-source-controller.tanzu.vmware.com |
0.33.0+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
Grafana grafana.tanzu.vmware.com |
9.5.1+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
7.5.17+vmware.1-tkg.3-zshippable | ✖ | ✖ | ✔ | |
Harbor harbor.tanzu.vmware.com |
2.8.2+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
Multus CNI multus-cni.tanzu.vmware.com |
3.8.0+vmware.3-tkg.1 | ✔ | ✔ | ✔ |
4.0.1+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ | |
Prometheus prometheus.tanzu.vmware.com |
2.43.0+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
2.37.0+vmware.3-tkg.1 | ✔ | ✔ | ✔ | |
2.36.2+vmware.1-tkg.1 | ✖ | ✖ | ✔ | |
Whereabouts whereabouts.tanzu.vmware.com |
0.6.1+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
0.5.4+vmware.2-tkg.1 | ✔ | ✔ | ✔ |
Tanzu Kubernetes Grid v2.3 は、次のインフラストラクチャ プラットフォームとオペレーティング システム (OS)、およびクラスタの作成と管理、ネットワーク、ストレージ、認証、バックアップと移行、および可観測性のコンポーネントをサポートします。
TKG v2.3 と互換性のある追加のパッケージ バージョンについては、Tanzu パッケージ ドキュメントの「Tanzu Standard リポジトリ v2023.10.16 リリース ノート」を参照してください。
TKG v2.3 に含まれるコンポーネント バージョンの完全なリストについては、「コンポーネントのバージョン」を参照してください。
vSphere | AWS | Azure | |
インフラストラクチャ プラットフォーム |
|
ネイティブ AWS | ネイティブ Azure |
Tanzu CLI | Tanzu CLI Core v1.0.0** | ||
TKG API、およびパッケージ インフラストラクチャ | Tanzu Framework v0.30.2 | ||
クラスタの作成と管理 | コア クラスタ API (v1.4.5)、クラスタ API プロバイダ vSphere (v1.7.1) | コア クラスタ API (v1.4.5)、クラスタ API プロバイダ AWS (v2.1.3) | コア クラスタ API (v1.4.5)、クラスタ API プロバイダ Azure (v1.9.2) |
TKG で配布された Kubernetes ノード OS | Photon OS 3、Ubuntu 20.04 | Amazon Linux 2、Ubuntu 20.04 | Ubuntu 18.04、Ubuntu 20.04 |
独自のイメージのビルド | Photon OS 3、Red Hat Enterprise Linux 7*** および 8、Ubuntu 18.04、Ubuntu 20.04、Windows 2019 | Amazon Linux 2、Ubuntu 18.04、Ubuntu 20.04 | Ubuntu 18.04、Ubuntu 20.04 |
コンテナ ランタイム | Containerd (v1.6.18) | ||
コンテナ ネットワーク | Antrea (v1.11.2)、Calico (v3.25.1)、Multus CNI (v4.0.1、v3.8.0) | ||
コンテナ レジストリ | Harbor (v2.8.4) | ||
Ingress | NSX Advanced Load Balancer Essentials and Avi Controller **** (v21.1.4-v21.1.6、v22.1.2-v22.1.3)、NSX v4.1.0 (vSphere 8.0.u1)、v3.2.2 (vSphere 7)、Contour (v1.25.2) | Contour (v1.25.2) | Contour (v1.25.2) |
ストレージ | vSphere コンテナ ストレージ インターフェイス (v3.0.1*****) および vSphere クラウド ネイティブ ストレージ | Amazon EBS CSI ドライバ (v1.18.0) およびツリー内クラウド プロバイダ | Azure Disk CSI ドライバ (v1.27.1)、Azure File CSI ドライバ (v1.27.0)、およびツリー内クラウド プロバイダ |
認証 | Pinniped 経由の OIDC および LDAP (v0.24.0) | ||
可観測性 | Fluent Bit (v2.1.6)、Prometheus (v2.45.0、v2.37.0)******、Grafana (v10.0.1) | ||
サービス検出 | 外部 DNS (v0.13.4) | ||
バックアップと移行 | Velero (v1.10.3) |
* このリリースと互換性のある VMware Cloud on AWS SDDC バージョンのリストについては、「VMware 製品の相互運用性マトリックス」を参照してください。
** このリリースと互換性のある Tanzu CLI バージョンの完全なリストについては、「製品の相互運用性マトリックス」を参照してください。
*** Tanzu Kubernetes Grid v1.6 は、Red Hat Enterprise Linux 7 イメージのビルドをサポートする最後のリリースです。
**** vSphere 8 で、TKG スタンドアローン管理クラスタとそのワークロード クラスタを使用して NSX Advanced Load Balancer を使用するには、NSX ALB v22.1.2 以降と TKG v2.1.1 以降が必要です。
***** vsphere_csi_driver のバージョン。このリリースに含まれる vSphere コンテナ ストレージ インターフェイス コンポーネントの完全なリストについては、「コンポーネントのバージョン」を参照してください。
****** クラスタを Kubernetes v1.25 にアップグレードする場合は、Prometheus をバージョン 2.37.0+vmware.3-tkg.1
以降にアップグレードする必要があります。Prometheus パッケージの以前のバージョン(バージョン 2.37.0+vmware.1-tkg.1
など)は、Kubernetes 1.25 と互換性がありません。
Tanzu Kubernetes Grid v2.3 に付属する Kubernetes バージョンの完全なリストについては、上記の「サポートされる Kubernetes バージョン」を参照してください。
TKG v2.3.x リリースには、次のソフトウェア コンポーネント バージョンが含まれています。
注以前の TKG リリースには、現在 Tanzu Standard リポジトリを介して配布されているコンポーネントが含まれていました。これらのコンポーネントのリストについては、以下の「Tanzu Standard リポジトリ」を参照してください。
コンポーネント | TKG v2.3.1 | TKG v2.3.0 |
---|---|---|
aad-pod-identity | v1.8.15+vmware.2 | v1.8.15+vmware.2* |
addons-manager | v2.2+vmware.1 | v2.2+vmware.1* |
ako-operator | v1.9.0_vmware.1 | v1.9.0_vmware.1* |
alertmanager | v0.25.0_vmware.4* | v0.25.0_vmware.3* |
antrea | v1.11.2_vmware.1* | v1.11.1_vmware.4* |
antrea-interworking | v0.11.1* | v0.11.0* |
aws-ebs-csi-driver | v1.18.0+vmware.2 | v1.18.0+vmware.2* |
azuredisk-csi-driver | v1.27.1+vmware.3* | v1.27.1+vmware.2* |
azurefile-csi-driver | v1.27.0+vmware.3* | v1.27.0+vmware.2* |
calico | v3.25.1+vmware.2 | v3.25.1+vmware.2* |
capabilities-package | v0.30.2-capabilities* | v0.30.2-capabilities* |
carvel-secretgen-controller | v0.14.2+vmware.2 | v0.14.2+vmware.2* |
cloud-provider-azure | v1.1.26+vmware.1、 v1.23.23+vmware.1、 v1.24.10+vmware.1 |
v1.1.26+vmware.1、 v1.23.23+vmware.1、 v1.24.10+vmware.1 |
cloud_provider_vsphere | v1.24.6+vmware.1、 |
v1.24.6+vmware.1*、 |
cluster-api-provider-azure | v1.9.2+vmware.1 | v1.9.2+vmware.1* |
cluster_api | v1.4.5+vmware.1* | v1.4.2+vmware.3* |
cluster_api_aws | v2.1.3+vmware.0 | v2.1.3+vmware.0* |
cluster_api_vsphere | v1.7.1+vmware.0* | v1.7.0+vmware.0* |
cni_plugins | v1.1.1+vmware.28* | v1.1.1+vmware.23* |
configmap-reload | v0.8.0+vmware.3* | v0.8.0+vmware.2* |
containerd | v1.6.18+vmware.1 | v1.6.18+vmware.1 |
coredns | v1.9.3+vmware.16* | v1.9.3+vmware.11* |
crash-diagnostics | v0.3.7+vmware.7 | v0.3.7+vmware.7* |
cri_tools | v1.25.0+vmware.10* | v1.25.0+vmware.6* |
csi_attacher | v4.2.0+vmware.4*、 v4.0.0+vmware.1、 v3.5.0+vmware.1、 v3.4.0+vmware.1、 v3.3.0+vmware.1 |
v4.2.0+vmware.2*、 v4.0.0+vmware.1*、 v3.5.0+vmware.1、 v3.4.0+vmware.1、 v3.3.0+vmware.1 |
csi_livenessprobe | v2.9.0+vmware.4*、 v2.8.0+vmware.1、 v2.7.0+vmware.1、 v2.6.0+vmware.1、 v2.5.0+vmware.1、 v2.4.0+vmware.1 |
v2.9.0+vmware.2*、 v2.8.0+vmware.1*、 v2.7.0+vmware.1、 v2.6.0+vmware.1、 v2.5.0+vmware.1、 v2.4.0+vmware.1 |
csi_node_driver_registrar | v2.7.0+vmware.4*、 v2.7.0+vmware.2、 v2.6.3+vmware.1、 v2.6.2+vmware.1、 v2.5.1+vmware.1、 v2.5.0+vmware.1、 v2.3.0+vmware.1 |
v2.7.0+vmware.1*、 v2.7.0+vmware.2*、 v2.6.3+vmware.1*、 v2.6.2+vmware.1*、 v2.5.1+vmware.1、 v2.5.0+vmware.1、 v2.3.0+vmware.1 |
csi_provisioner | v3.4.1+vmware.3*、 v3.4.0+vmware.4*、 v3.3.0+vmware.1、 v3.2.1+vmware.1、 v3.1.0+vmware.2 |
v3.4.1+vmware.2*、 v3.4.0+vmware.2*、 v3.3.0+vmware.1*、 v3.2.1+vmware.1、 v3.1.0+vmware.2 |
dex | 該当なし | 削除 |
envoy | v1.25.9+vmware.1* | v1.25.6+vmware.1* |
external-snapshotter | v6.2.1+vmware.4*、v6.1.0+vmware.1、v6.0.1+vmware.1、 v5.0.1+vmware.1 |
v6.2.1+vmware.2*、 v6.1.0+vmware.1*、 v6.0.1+vmware.1、 v5.0.1+vmware.1 |
etcd | v3.5.6+vmware.20* | v3.5.6+vmware.14* |
guest-cluster-auth-service | v1.3.0_tkg.2 | v1.3.0_tkg.2 |
image-builder | v0.1.14+vmware.1 | v0.1.14+vmware.1* |
image-builder-resource-bundle | v1.26.8+vmware.1-tkg.2* | v1.26.5+vmware.2-tkg.1* |
imgpkg | v0.36.0+vmware.2 | v0.36.0+vmware.2* |
jetstack_cert-manager (cert-manager) | v1.11.1+vmware.1 | v1.11.1+vmware.1* |
k8s-sidecar | v1.22.4+vmware.2* | v1.22.0+vmware.2*、 v1.15.6+vmware.5、 v1.12.1+vmware.6 |
k14s_kapp (kapp) | v0.55.0+vmware.2 | v0.55.0+vmware.2* |
k14s_ytt (ytt) | v0.45.0+vmware.2 | v0.45.0+vmware.2* |
kapp-controller | v0.45.2+vmware.1 | v0.45.2+vmware.1* |
kbld | v0.37.0+vmware.2 | v0.37.0+vmware.2* |
kube-state-metrics | v2.8.2+vmware.1 | v2.8.2+vmware.1* |
kube-vip | v0.5.12+vmware.1 | v0.5.12+vmware.1 |
kube-vip-cloud-provider | v0.0.5+vmware.1、 v0.0.4+vmware.4 |
v0.0.5+vmware.1*、 v0.0.4+vmware.4 |
kubernetes | v1.26.8+vmware.1*、 v1.25.13+vmware.1*、 v1.24.17+vmware.1* |
v1.26.5+vmware.2*、 v1.25.10+vmware.2*、 v1.24.14+vmware.2 |
kubernetes-csi_external-resizer | v1.7.0+vmware.4*、 v1.6.0+vmware.1、 v1.5.0+vmware.1、 v1.4.0+vmware.1 |
v1.7.0+vmware.2*、 v1.6.0+vmware.1*、 v1.5.0+vmware.1*、 v1.4.0+vmware.1 |
kubernetes-sigs_kind | v1.26.8+vmware.1-tkg.2_v0.17.0*、 v1.25.13+vmware.2-tkg.1_v0.17.0*、 v1.24.17+vmware.2-tkg.1_v0.17.0* |
v1.26.5+vmware.2-tkg.1_v0.17.0*、 v1.25.10+vmware.2-tkg.1_v0.17.0*、 v1.24.14+vmware.2-tkg.1_v0.17.0* |
kubernetes_autoscaler | v1.26.2+vmware.1 | v1.26.2+vmware.1* |
load-balancer-and-ingress-service (AKO) | v1.9.3+vmware.2-tkg.1 | v1.9.3+vmware.2-tkg.1* |
metrics-server | v0.6.2+vmware.1 | v0.6.2+vmware.1 |
pinniped | v0.24.0+vmware.1-tkg.1 | v0.24.0+vmware.1-tkg.1* |
pinniped-post-deploy | v0.24.0+vmware.1 | v0.24.0+vmware.1* |
prometheus_node_exporter | v1.5.0+vmware.3* | v1.5.0+vmware.2* |
pushgateway | v1.5.1+vmware.3* | v1.5.1+vmware.2* |
sonobuoy | v0.56.16+vmware.2 | v0.56.16+vmware.2* |
tanzu-framework | v0.30.2* | v0.30.2* |
tanzu-framework-addons | v0.30.2* | v0.30.2* |
tanzu-framework-management-packages | v0.30.2* | v0.30.2* |
tkg-bom | v2.3.1* | v2.3.0* |
tkg-core-packages | v1.26.8+vmware.1-tkg.2* | v1.26.8+vmware.2-tkg.1* |
tkg-standard-packages | v2023.10.16* | v2023.7.13* |
tkg-storageclass-package | v0.30.2* | v0.30.2* |
tkg_telemetry | v2.3.1+vmware.3* | v2.3.0+vmware.2* |
velero | v1.10.3+vmware.1 | v1.10.3+vmware.1* |
velero-mgmt-cluster-plugin* | v0.2.0+vmware.1 | v0.2.0+vmware.1* |
velero-plugin-for-aws | v1.6.2+vmware.1 | v1.6.2+vmware.1* |
velero-plugin-for-csi | v0.4.3+vmware.1 | v0.4.3+vmware.1* |
velero-plugin-for-microsoft-azure | v1.6.2+vmware.1 | v1.6.2+vmware.1* |
velero-plugin-for-vsphere | v1.5.1+vmware.1 | v1.5.1+vmware.1* |
vendir | v0.33.1+vmware.2 | v0.33.1+vmware.2* |
vsphere_csi_driver | v3.0.1+vmware.4* | v3.0.1+vmware.2* |
* 以前のリリース以降の新しいコンポーネントまたはバージョンアップを示します。TKG v2.3.0 は v2.3.1 より前、TKG v2.2.0 は v2.3.0 より前です。
TKG v2.3 に同梱されているソフトウェア コンポーネント バージョンのリストについては、imgpkg
を使用してリポジトリ バンドルをプルし、その内容を一覧表示します。たとえば、TKG v2.3.1 の Tanzu Standard リポジトリに同梱されているコンポーネント バージョンを一覧表示するには、次のコマンドを実行します。
imgpkg pull -b projects.registry.vmware.com/tkg/packages/standard/repo:v2023.10.16 -o standard-2023.10.16
次のようなローカル BOM ファイルには、パッケージのバージョンも表示されますが、最新ではない可能性があります。
~/.config/tanzu/tkg/bom/tkg-bom-v2.3.1.yaml
~/.config/tanzu/tkg/bom/tkr-bom-v1.26.8+vmware.2-tkg.1.yaml
TKG アップグレード パスでは、v2.3 が v2.2.0 のすぐ後に続きます。
Tanzu Kubernetes Grid v2.3.x には v2.2.x からのみアップグレードできます。v2.2.x より前のバージョンから Tanzu Kubernetes Grid v2.3.x にアップグレードする場合は、まず v2.2.x にアップグレードする必要があります。
ワークロード クラスタの Kubernetes バージョンをアップグレードするときに、マイナー バージョンをスキップすることはできません。たとえば、Tanzu Kubernetes クラスタを v1.24.x から v1.26.x に直接アップグレードすることはできません。クラスタを v1.26.x にアップグレードする前に、v1.24.x クラスタを v1.25.x にアップグレードする必要があります。
Tanzu Kubernetes Grid v2.3 のリリース日は次のとおりです。
Tanzu Kubernetes Grid v2.3 では、以前の最新リリースである v2.2.0 と比較して、次の新しい動作が導入されています。
Pinniped を介して ID およびアクセス管理に OIDC ID プロバイダ (IDP) を使用する場合は、リフレッシュ トークンを発行するように OIDC IDP を構成する必要があります。
OIDC_IDENTITY_PROVIDER_SCOPES
および OIDC_IDENTITY_PROVIDER_ADDITIONAL_AUTHORIZE_PARAMS
を構成します。LDAPIdentityProvider
カスタム リソースの構成設定に対応するようになりました。LDAP ID プロバイダを使用するように構成された管理クラスタを Tanzu Kubernetes Grid v2.3 にアップグレードする前に、「(LDAP のみ)LDAP 設定の更新」の説明に従って LDAP 設定を更新します。管理クラスタを v2.3 にアップグレードするときに、既存のすべての LDAP 設定が新しい Pinniped 形式に自動的に移行されます。tanzu mc permissions aws set
を実行する必要があります。詳細については、「クラスタのアップグレードの準備」の [AWS] タブを参照してください。ConfigMap
オブジェクトを作成する必要があります。「複数の Kubernetes バージョン」ページの「Kubernetes クラスタの展開」を参照してください。このセクションでは、TKG v2.3 リリース以降の将来のリリースで有効になる動作の変更について、事前に通知します。
tanzu login
コマンドは、TKG の今後のリリースで削除される予定です。このコマンドは、tanzu context
コマンドに置き換えられます。詳細については、VMware Tanzu CLI のドキュメントの「tanzu context」を参照してください。
『TKG 2.3 スタンドアローン管理クラスタの展開と管理』には、スタンドアローン管理クラスタに固有のトピックが含まれています。これは TKG を vSphere with Tanzu スーパーバイザーとともに使用することには関連しません。
詳細については、「VMware Tanzu Kubernetes Grid のドキュメント」ページの「お客様の展開に適した TKG ドキュメントを見つける」を参照してください。
Tanzu Kubernetes Grid v2.3.1 では、文書化されていないユーザーの問題とバグが解決されています。
以前の Tanzu Kubernetes Grid リリースの「既知の問題」として記載された次の問題は、Tanzu Kubernetes Grid v2.3 で解決されています。
vSphere 8 で IPv6 ネットワークがサポートされない
TKG v2.3 は vSphere 8 で IPv6 ネットワークをサポートしませんが、「IPv6 ネットワーク」で説明するように、vSphere 7 の Kube-Vip を使用した単一スタック IPv6 ネットワークをサポートします。
クラスタの自動スケーラが、想定されるキーを MachineDeployment に追加しない
クラスタの自動スケーラが有効になっているクラスタを作成する場合、MachineDeployment
の metadata.annotations
に想定されるキー cluster.x-k8s.io/cluster-api-autoscaler-node-group-max-size
と cluster.x-k8s.io/cluster-api-autoscaler-node-group-min-size
は追加されません。
ClusterClass 構成にワーカー ノードのロールアウト変数が見つからない
ワークロード クラスタ MachineDeployments
のロールアウト戦略を設定するために使用する WORKER_ROLLOUT_STRATEGY
変数が、すべてのターゲット プラットフォームの ClusterClass 構成に見つかりませんでした。WORKER_ROLLOUT_STRATEGY
変数をクラスベースのクラスタとレガシーのプランベースのクラスタに設定できるようになりました。詳細については、「構成ファイル変数リファレンス」の「GPU 対応クラスタ」を参照してください。
AWS のワークロード クラスタ ノード プールは、スタンドアローン管理クラスタと同じアベイラビリティ ゾーンにある必要があります。
管理クラスタが配置されている場所とは異なる az
で構成されたノード プールを作成すると、tanzu cluster node-pool list
によって一覧表示されるように、新しいノード プールがステータス ScalingUp
で停止したままになり、Ready
状態に到達しない場合があります。
スタンドアローン管理クラスタを再作成しても Pinniped 認証がリストアされない
「管理およびワークロード クラスタ インフラストラクチャのバックアップおよびリストア(テクニカル プレビュー)」の説明に従ってスタンドアローン管理クラスタを再作成すると、ユーザーは Pinniped 認証を介してワークロード クラスタにログインできなくなります。
実行 ID が 1000000 を超えると、Harbor CVE のエクスポートに失敗することがある
TKG v2.2 用にパッケージ化されたバージョンだった Harbor v2.7.1 には、実行プライマリ キーの自動増分 ID が 1000000 を超えると、CVE レポートのエクスポートが「404 page not found」というエラーになるという既知の問題があります。
tanzu package available get
の --default-values-file-output
オプションによって、Harbor パッケージ用の不完全な構成テンプレート ファイルが出力される
tanzu package available get harbor.tanzu.vmware.com/PACKAGE-VERSION --default-values-file-output FILE-PATH
を実行すると、Harbor パッケージ用の不完全な構成テンプレート ファイルが作成されます。
クラスタ API のラベル伝達の問題により、クラスベースのワークロード クラスタのクラスタ構成ファイルの AUTOSCALER_MIN_SIZE_*
および AUTOSCALER_MAX_SIZE_*
設定がクラスタの MachineDeployment
オブジェクトに設定されません。手動で追加する必要があります。
クラスベースのクラスタ名には、NSX ALB をロード バランサ サービスまたは入力方向コントローラとした、25 文字の制限がある
NSX Advanced Load Balancer (ALB) が、スタンドアローン管理クラスタで、クラスベースのクラスタのロード バランサ サービスまたは入力方向コントローラとして使用されている場合、そのアプリケーション名には、クラスタ名と、AKO パッケージの内部名である load-balancer-and-ingress-service
の両方が含まれます。組み合わせた名前が Avi Controller アプリケーションの 64 文字の制限を超えると、tanzu cluster create
コマンドが、avi-system
名前空間が見つからなかったことを示すエラーで失敗することがあります。
回避策:NSX ALB をロード バランサまたは入力方向コントローラとして使用する場合は、クラスベースのクラスタ名の長さを 25 文字以下に制限します。
Tanzu Kubernetes Grid v2.3.x の既知の問題は次のとおりです。v2.3.0 の既知の問題で、それ以降の v2.3.x パッチ リリースで解決されたものは、修正されたパッチ リリースの「解決した問題」に記載されています。
頻繁に発生する問題の解決策については、「管理クラスタの問題のトラブルシューティング」、「ワークロード クラスタの問題のトラブルシューティング」、または「VMware ナレッジベースの記事」を参照してください。
tanzu package repository add
を実行して、tanzu-standard
リポジトリを、「vSphere 上の単一ノード クラスタ」で説明されているタイプの単一ノード クラスタに追加すると、失敗する場合があります。
これは、単一ノード クラスタがコア アドオンとして cert-manager
を使用して起動するためです。これは、tanzu-standard
リポジトリ内の別の cert-manager
パッケージと競合します。
回避策:tanzu-standard
リポジトリを追加する前に、「cert-manager のインストール」の説明に従って、cert-manager
パッケージの注釈にパッチを適用してください。
AWS および Azure で、オブジェクト仕様を使用したワークロード クラスタの作成がゾーン/リージョン エラーで失敗する
デフォルトでは、AWS または Azure 上で、--file
に渡されたクラスベースのクラスタ オブジェクト仕様で tanzu cluster create
を実行すると、Tanzu CLI は vSphere のアベイラビリティ ゾーンのみに関連するリージョンとゾーンの検証を実行します
回避策 AWS または Azure でクラスベースのクラスタを作成する場合は、「クラスベースのクラスタの作成」で説明されている 1 段階または 2 段階プロセスのどちらを使用するかに基づいて、次のいずれかを実行します。
1 段階:features.cluster.auto-apply-generated-clusterclass-based-configuration
を true
に設定し、--dry-run
を tanzu cluster create
コマンドに渡さないで、説明のように 1 段階プロセスに従います。
2 段階:2 段階としてオブジェクト仕様を使用して tanzu cluster create
を実行する前に、ローカル環境で SKIP_MULTI_AZ_VERIFY
を true
に設定します。
export SKIP_MULTI_AZ_VERIFY=true
キャパシティが制限されたクラスタを使用している場合、コンポーネントのスケジュール設定に失敗する
管理クラスタとワークロード クラスタで、単一の制御プレーン ノード、単一のワーカー ノード、または小規模から中規模のクラスタを含むクラスタを展開すると、リソース スケジュールの競合が発生する可能性があります。
回避策:単一ノード クラスタまたは合計 3 つ以上のノードを持つクラスタを使用します。
Antrea CNI を使用して、最新でない TKr バージョンに基づいた新しいワークロード クラスタの作成を実行できない
Antrea CNI を使用する新しいワークロード クラスタを作成して、「Tanzu Kubernetes Grid v2.2 でサポートされる Kubernetes バージョン」に記載されている以前のバージョンの TKG に付属する Kubernetes バージョン(TKG v1.6.1 のデフォルトの Kubernetes バージョンであった Kubernetes v1.23.10 など)を実行することはできません。
回避策:Kubernetes 1.26.8、1.25.13、または 1.24.17 を実行するワークロード クラスタを作成します。Kubernetes プロジェクトは、現在のマイナー バージョンの最新のパッチ バージョンでコンポーネントを実行することを推奨します。
管理クラスタの制御プレーン ノードを偶数にスケーリングできない
管理クラスタで tanzu cluster scale
を実行し、--controlplane-machine-count
オプションに偶数を渡すと、TKG は制御プレーン ノードをスケーリングせず、CLI はエラーを出力しません。クォーラムを維持するには、制御プレーン ノードの数を常に奇数にする必要があります。
回避策 制御プレーン ノードの数を偶数にスケーリングしないでください。
注v4.0 以降では、VMware NSX-T Data Center の名前が「VMware NSX」に変更されました。
TKG v2.3 では、管理クラスタの構成変数 AVI_DISABLE_INGRESS_CLASS
、AVI_DISABLE_STATIC_ROUTE_SYNC
、AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER
は機能しません。
基盤となるプロパティのいずれかをデフォルト以外の値 true
に設定するには、次に説明するように、管理クラスタの作成後に管理クラスタの 2 つの AKODeploymentConfig
構成オブジェクトを手動で編集する必要があります。
回避策:管理クラスタの install-ako-for-all
および install-ako-for-management-cluster
オブジェクトを編集します。
kubectl
コンテキストを管理クラスタに設定します。
kubectl config use-context MGMT-CLUSTER-CONTEXT
install-ako-for-all
および install-ako-for-management-cluster
構成を編集します。
kubectl edit adc install-ako-for-all
kubectl edit adc install-ako-for-management-cluster
構成で、必要に応じて次のプロパティを設定します。
extraConfigs.ingress.disableIngressClass
- for config var AVI_DISABLE_INGRESS_CLASS
extraConfigs.disableStaticRouteSync
- for config var AVI_DISABLE_STATIC_ROUTE_SYNC
extraConfigs.ingress.defaultIngressController
- for config var AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER
保存して終了します。
これらの設定は、管理クラスタが後で作成するワークロード クラスタに適用されます。
管理クラスタで NSX ALB NodePortLocal
入力方向モードがサポートされない
TKG v2.3 では、管理クラスタへのトラフィックに対して NSX Advanced Load Balancer (ALB) を入力方向モード NodePortLocal
のサービス タイプとして実行することはできません。
この問題は、「NodePortLocal モードでの L7 入力方向」で説明されているように、ワークロード クラスタへの NodePortLocal
入力方向のサポートには影響しません。
回避策:AVI_INGRESS_SERVICE_TYPE
を NodePort
または ClusterIP
に設定して管理クラスタを構成します。デフォルトは NodePort
です。
古いバージョンの NSX-T と Linux カーネル 5.8 を使用する Photon 3 または Ubuntu 仮想マシンで、管理クラスタの作成が失敗するか、パフォーマンスが低下する
次のインフラストラクチャと構成を使用して管理クラスタを展開すると、失敗したり、ポッド間のトラフィックが制限されたりすることがあります。
この組み合わせにより、古いバージョンの NSX-T と Antrea CNI の間でチェックサムの問題が発生します。
TMC:管理クラスタが Tanzu Mission Control (TMC) に登録されている場合、この問題の回避策はありません。それ以外の場合は、以下の回避策を参照してください。
回避策:
ANTREA_DISABLE_UDP_TUNNEL_OFFLOAD
を "true"
に設定して構成されたワークロード クラスタを展開します。この設定により、Antrea の UDP チェックサム オフロードが無効化され、一部のアンダーレイ ネットワークおよび物理 NIC ネットワーク ドライバに関する既知の問題が回避されます。ワークロード クラスタが複数のデータストアにストレージを分散できない
「データストア クラスタを使用するクラスタの展開」で説明するように、ワークロード クラスタを有効にして複数のデータストアにストレージを分散することはできません。1 つのデータストア クラスタ内の複数のデータストアにタグを付ける場合、ワークロード クラスタのストレージ ポリシーの基準として、ワークロード クラスタはデータストアの 1 つのみを使用します。
回避策:なし
HTTP/HTTPS プロキシ パスワードで英数字以外の文字を使用できない
CLI を使用して管理クラスタを展開する場合、英数字以外の文字 (# ` ^ | / ? % ^ { [ ] } \ " < >
) をパスワードに使用することはできません。また、ユーザー インターフェイスを使用して管理クラスタを展開する場合、HTTP/HTTPS プロキシ パスワードに英数字以外の文字を使用することはできません。
回避策:CLI を使用して管理クラスタを展開する場合、# ` ^ | / ? % ^ { [ ] } \ " < >
を除く英数字以外の文字をパスワードに使用できます。
ARM プロセッサを搭載した macOS マシンで Tanzu CLI が機能しない
Tanzu CLI v0.11.6 は、ARM (Apple M1) チップを搭載した macOS マシン([Finder] > [この Mac について (About This Mac)] > [概要 (Overview)] で特定)では動作しません。
回避策:Linux または Windows OS のブートストラップ マシン、または Intel プロセッサを搭載した macOS マシンを使用します。
Tanzu CLI が tanzu management-cluster osimage を一覧表示する
management-cluster
コマンド グループは、tanzu management-cluster osimage
を一覧表示します。この機能は現在開発中で、今後の使用のために予約されています。
回避策:tanzu management-cluster osimage
は使用しないでください。
クラスタ制御プレーンが使用可能になるまで待機中に、管理クラスタを vSphere 7 に展開すると失敗する
管理クラスタを vSphere 7 に展開するときに仮想マシン ネットワークを指定すると、エラー unable to set up management cluster: unable to wait for cluster control plane available: control plane is not available yet
で展開が失敗します。
回避策:ネットワーク「仮想マシン ネットワーク」には、VsVip
および ServiceEngine
の固定 IP アドレスを持つ複数の構成済みサブネットがあります。検出されたサブネットを無視し、仮想サービスをサービス エンジンに配置できるようにするには、仮想マシン ネットワークで exclude_discovered_subnets
を「True」に設定します。
仮想マシンが割り当てられているアベイラビリティ ゾーンを削除することができる
仮想マシンを含むアベイラビリティ ゾーンを削除すると、その後仮想マシンを削除できなくなります。
回避策:アベイラビリティ ゾーンを削除する前に、すべての仮想マシンを削除します。
VPXD セッションの枯渇が原因でワークロード クラスタの作成に失敗する
vSphere でワークロード クラスタを作成すると、次のエラーが表示されて作成が失敗します。
vSphere config validation failed: failed to get VC client: failed to create vc client: Post "https://address/sdk": EOF ". VCenter vpxd.log report error: Out of HTTP sessions: Limited to 2000
これは、vCenter Server セッションの枯渇が原因で発生します。
回避策:VMware KB 50114010を参照してください。
small
ノードで作成されたノード プールが Provisioning
で停止することがある
small
として構成されたノード SIZE
で作成されたノード プールは、Provisioning
状態でスタックし、Running
に進まない場合があります。
回避策:ノード プールに少なくとも medium
サイズのノードを構成します。
インターネットが制限された環境で Windows ワーカーがサポートされない
VMware は、プロキシが設定された環境またはエアギャップされた環境での Windows ワーカー ノードを持つ TKG ワークロード クラスタをサポートしていません。
回避策:VMware の担当者にお問い合わせください。一部の TKG ユーザーは、たとえばこの非公式リポジトリで説明されているように、Windows カスタム イメージをビルドし、オフライン環境で Windows ワーカーを使用してワークロード クラスタを実行しています。
イメージ ビルド プロセス中に無視可能な goss
テスト エラーが発生する
Kubernetes Image Builder を実行してカスタム Linux カスタム マシン イメージを作成すると、goss
テストの python-netifaces
、python-requests
、および ebtables
が失敗します。コマンド出力はエラーを報告します。エラーは無視できます。正常なイメージのビルドを妨げるわけではありません。
AVS での vSphere CSI ボリュームの削除に失敗することがある
Azure vSphere Solution (AVS) で、vSphere CSI パーシステント ボリューム (PV) の削除に失敗することがあります。PV を削除するには、cns.searchable 権限が必要です。AVS のデフォルトの管理者アカウント [email protected] は、この権限で作成されていません。詳細については、「vSphere ロールと権限」を参照してください。
回避策:AVS 上の vSphere CSI PV を削除するには、Azure サポートにお問い合わせください。
TKG v2.3 では、Tanzu Standard パッケージ リポジトリはバージョン管理され、TKG とは別に配布されます。バージョン管理は日付スタンプに基づきます。
TKG v2.3.0 および v2.3.1 の場合、TKG パッチ バージョンと、互換性のある最新の Tanzu Standard リポジトリ バージョンは同じ日付でリリースされます。
将来の Tanzu Standard リポジトリ バージョンは、TKG バージョンよりも頻繁に公開される可能性がありますが、すべてのパッチ バージョンは TKG のマイナー バージョンと Tanzu Standard の間の既存の互換性を維持します。
各 TKG v2.3 パッチ バージョンの、互換性のある最新の Tanzu Standard リポジトリ バージョンは次のとおりです。
VMware は、VMware Tanzu Standard リポジトリで提供されるオプションのパッケージに対して次のことをサポートします。
vmware_cert-manager
パッケージには、アップストリーム jetstack_cert-manager
の acmesolver
コンポーネントが含まれています。TKG バージョン | jetstack_cert-manager のバージョン | vmware cert-manager パッケージのバージョン | Kubernetes バージョンの互換性 |
2.3 | v1.11.1 | v1.11.1+vmware.1 | 1.21-1.27 |
cert manager v1.11.1 には、次のコンポーネント イメージ バージョンが含まれています。
TKG v2.3 では、次の cert manager のバージョンが廃止されました。
envoy:
workload:
type: Deployment
replicas: 3
次のようなデータ値を使用して、Contour ワークロードと Envoy ワークロード内の各コンテナにリソース要求または制限を指定できます。
contour:
resources:
contour:
requests:
cpu: 250m
memory: 128Mi
limits:
cpu: 1
memory: 512Mi
envoy:
resources:
envoy:
# include requests and limits as desired
shutdown-manager:
# include requests and limits as desired
data-values
ファイルの構成値が検証されます。データ値にサポートされていない値を指定すると、エラーが発生します。Contour v1.24.4 は、Kubernetes v1.24 ~ v1.26 でサポートされています。Contour の互換性マトリックスを参照してください。
data-values
ファイルは、null
値を受け入れなくなりました。値が null
に設定されている構成フィールドの場合は、値を完全に省略する必要があります。external-csi-snapshot-webhook
v6.1.0 を明示的にインストールする必要があります。TKG バージョン | external-csi-snapshot-webhook バージョン |
想定される Kubernetes バージョンの互換性 | テスト済みの Kubernetes バージョン |
2.3.0 | 6.1.0 | 1.18 - 最新 | 1.24 |
external-csi-snapshot-webhook には、次のコンポーネント イメージ バージョンが含まれています。
createNamespace
構成フィールド。external-dns
コンポーネントがインストールされる名前空間を作成するには、true
に設定します。false に設定すると、パッケージ コンポーネントは既存の名前空間にインストールされます。次の Fluxcd コントローラ パッケージ リリース ノートを参照してください。
Grafana v9.5.1 には、次のコンポーネント イメージ バージョンが含まれています。
Harbor v2.8.2 には、次のコンポーネント イメージ バージョンが含まれています。
デフォルト値を次のように変更します。
namespace: kube-system
#! DaemonSet related configuration
daemonset:
resources:
limits:
cpu: 100m
memory: 50Mi
requests:
cpu: 100m
memory: 50Mi
configmap:
cniVersion: 0.3.1
multusConfigFile: auto
Prometheus v2.43.0 には、次のコンポーネント イメージ バージョンが含まれています。
restic daemonset
の名前が node-agent
に変更されましたResticRepository
CR の名前が BackupRepository
に変更されましたvelero restic repo
コマンドの名前が velero repo
に変更されましたvelero-restic-credentials
シークレットの名前が velero-repo-credentials
に変更されましたdefault-volumes-to-restic
パラメータの名前が default-volumes-to-fs-backup
に変更されましたrestic-timeout
パラメータの名前が fs-backup-timeout
に変更されましたdefault-restic-prune-frequency
パラメータの名前が default-repo-maintain-frequency
に変更されましたuploader-type
構成パラメータを介して両方をサポートします。
BackupItemAction
、RestoreItemAction
および VolumeSnapshotterAction
プラグインをバージョン v1 に移行し、複雑なデータ移動タスクなど、後方互換性をサポートしない可能性のある将来のプラグインの変更を可能にします。「プラグインのバージョン管理」を参照してください。-paused
フラグを velero schedule create
に渡して、一時停止したスケジュールを作成します。velero schedule pause
と velero schedule unpause
は既存のスケジュールの一時停止と一時停止解除を行います。TKG バージョン | Velero バージョン | 想定される Kubernetes バージョンの互換性 | テスト済みの Kubernetes バージョン |
2.3 (Halifax) | 1.10 | 1.18-最新 | 1.22.5、1.23.8、1.24.6、および 1.25.1 |
Velero v1.10.3 には、次のコンポーネント イメージ バージョンが含まれています。
CVE を修正するために、Velero ランタイムと依存関係のバージョンは次のように更新されます。
ファイルシステムのバックアップの変更により、以前のアップグレード手順は機能しません。新しいアップグレード手順については、「Velero 1.10 へのアップグレード」を参照してください。
ipRanges
をサポートします。Whereabouts リポジトリ README の「IPv6 構成の例」を参照してください。