Notes de mise à jour de VMware Tanzu Kubernetes Grid v2.4

Sauf indication contraire, ces notes de mise à jour s'appliquent à toutes les versions de correctifs v2.4.x de Tanzu Kubernetes Grid (TKG).

TKG v2.4 est distribué sous la forme d'un module de la CLI Tanzu téléchargeable qui déploie un cluster de gestion autonome TKG avec version. TKG v2.4 prend en charge la création et la gestion de clusters de charge de travail basés sur une classe, avec un cluster de gestion autonome pouvant s'exécuter sur plusieurs infrastructures, notamment vSphere, AWS et Azure.

Tanzu Kubernetes Grid v2.4 et superviseur vSphere with Tanzu dans vSphere 8

Important

Le superviseur vSphere with Tanzu dans vSphere 8.0.1c et versions ultérieures exécute TKG v2.2. Les versions antérieures de vSphere 8 exécutent TKG v2.0, qui n'a pas été publié indépendamment du superviseur. Les clusters de gestion autonomes qui exécutent TKG 2.x sont disponibles à partir de TKG 2.1 et versions ultérieures. En raison de la version antérieure de TKG intégrée au superviseur, certaines fonctionnalités qui sont disponibles si vous utilisez un cluster de gestion TKG 2.4 autonome ne le sont pas si vous utilisez un superviseur vSphere with Tanzu pour créer des clusters de charge de travail. Les versions ultérieures de TKG seront intégrées dans le superviseur dans les futures versions de mise à jour vSphere. Par conséquent, la version de TKG intégrée à la dernière version de vSphere with Tanzu à un moment donné peut ne pas être aussi récente que la dernière version autonome de TKG. Toutefois, les versions de la CLI Tanzu compatibles avec toutes les versions de TKG v2.x sont entièrement compatibles avec le superviseur dans toutes les versions de vSphere 8. Par exemple, la CLI Tanzu v1.0.x est entièrement rétrocompatible avec les plug-ins TKG 2.2 que le superviseur fournit.

Nouveautés

Tanzu Kubernetes Grid v2.4.x inclut les nouvelles fonctionnalités suivantes.

Tanzu Kubernetes Grid v2.4.0

Nouvelles fonctionnalités de Tanzu Kubernetes Grid v2.4.0 :

Versions de Kubernetes, de TKG et de modules prises en charge

À partir de TKG v2.2, la stratégie de prise en charge de VMware a été modifiée pour les anciennes versions de correctifs de TKG et les versions de Tanzu Kubernetes (TKr), qui intègrent les versions de Kubernetes pour TKG. Les stratégies de prise en charge de TKG v2.1 et les versions mineures antérieures de TKG ne changent pas.

Les deux premières sections ci-dessous résument la prise en charge de toutes les versions actuellement compatibles de TKG et des TKr sous les stratégies de prise en charge qui s'appliquent à chacune d'elles.

La troisième section ci-dessous répertorie les versions des modules dans le référentiel Tanzu Standard qui sont prises en charge par les TKr Kubernetes v1.27, v1.26 et v1.25.

Versions de Kubernetes prises en charge

Chaque version de Tanzu Kubernetes Grid ajoute la prise en charge de la version Kubernetes de son cluster de gestion, ainsi que des versions supplémentaires de Kubernetes distribuées en tant que versions de Tanzu Kubernetes (TKr), sauf indication contraire comme Problème connu.

Versions mineures : VMware prend en charge TKG v2.4 avec Kubernetes v1.27, v1.26 et v1.25 au moment de la publication et tant que TKG v2.4 est également pris en charge. Une fois que TKG v2.4 a atteint sa date de fin de support général, VMware ne prend plus en charge Kubernetes v1.26 et v1.25 avec TKG.

Versions de correctifs : Lorsque VMware publie une nouvelle version de correctif TKr pour une gamme mineure, il conserve la prise en charge des versions de correctifs plus anciennes pendant deux mois. Cela donne aux clients un délai de 2 mois pour effectuer une mise à niveau vers les nouvelles versions de correctifs de TKr. À partir de TKG v2.2, VMware ne prend pas en charge toutes les versions de correctifs TKr provenant de gammes mineures précédentes de Kubernetes.

Les versions de correctifs Tanzu Kubernetes Grid prennent en charge les versions de correctifs TKr ou les prenaient en charge, comme indiqué ci-dessous.

Version de Tanzu Kubernetes Grid Version Kubernetes du cluster de gestion Versions de Kubernetes (TKr) fournies
2.4.0 1.27.5 1.27.5, 1.26.8, 1.25.13
2.3.0 1.26.5 1.26.5, 1.25.10, 1.24.14
2.2.0 1.25.7 1.25.7, 1.24.11, 1.23.17
2.1.1 1.24.10 1.24.10, 1.23.16, 1.22.17
2.1.0 1.24.9 1.24.9, 1.23.15, 1.22.17

Versions de Tanzu Kubernetes Grid prises en charge

VMware prend en charge les versions de TKG comme suit :

Versions mineures : VMware prend en charge TKG conformément à la Stratégie de cycle de vie N-2, qui s'applique aux deux versions mineures (la plus récente et la précédente) de TKG. Avec la version de TKG v2.4.0, TKG v2.1 n'est plus pris en charge après qu'une période d'un an s'est écoulée depuis la version v2.1. Pour plus d'informations, reportez-vous à la Matrice de cycle de vie des produits VMware.

Versions de correctifs : VMware ne prend pas en charge toutes les versions de correctifs TKG précédentes. Lorsque VMware publie une nouvelle version de correctif de TKG, il conserve la prise en charge de la version de correctif antérieure pendant deux mois. Cela donne aux clients un délai de 2 mois pour effectuer une mise à niveau vers les nouvelles versions de correctifs de TKG.

  • Par exemple, la prise en charge de TKG v2.4.0 se termine deux mois après la disponibilité générale de TKG v2.4.1.

Versions de modules prises en charge

Les versions de modules dans le référentiel Tanzu Standard pour TKG v2.4 sont compatibles via les TKr avec les versions mineures v1.27, v1.26 et v1.25, et sont répertoriées dans les Notes de mise à jour du référentiel Tanzu Standard.

Snapshot de produit pour Tanzu Kubernetes Grid v2.4

Tanzu Kubernetes Grid v2.4 prend en charge les plates-formes d'infrastructure et les systèmes d'exploitation (SE) suivants, ainsi que la création et la gestion de clusters, la mise en réseau, le stockage, l'authentification, la sauvegarde et la migration, ainsi que les composants d'observabilité.

Pour obtenir la liste complète des versions de composants incluses dans TKG v2.4.0, reportez-vous à la section Versions des composants.

Pour connaître les versions de modules supplémentaires compatibles avec TKG v2.4.0, reportez-vous aux Notes de mise à jour du référentiel Tanzu Standard.

vSphere AWS Azure
Plate-forme d'infrastructure
  • vSphere 6.7U3
  • vSphere 7.0, 7.0U1-U3
  • vSphere 8.0, 8.0U1
  • VMware Cloud on AWS* v1.20 et v1.22
  • Azure VMware Solution v2.0
AWS natif Azure natif
CLI Tanzu CLI Tanzu Core v1.0.x**
API TKG et infrastructure de modules Tanzu Framework v0.31.0
Création et gestion du cluster API de cluster principal (v1.4.5), fournisseur d'API de cluster vSphere (v1.7.1) API de cluster principal (v1.4.5), fournisseur d'API de cluster AWS (v2.1.3) API de cluster principal (v1.4.5), fournisseur d'API de cluster Azure (v1.9.2)
Système d'exploitation du nœud Kubernetes distribué avec TKG Photon OS 3, Ubuntu 20.04 Amazon Linux 2, Ubuntu 20.04 Ubuntu 18.04, Ubuntu 20.04
Créer votre propre image Photon OS 3, Red Hat Enterprise Linux 7*** et 8, Ubuntu 18.04, Ubuntu 20.04, Windows 2019 Amazon Linux 2, Ubuntu 18.04, Ubuntu 20.04 Ubuntu 18.04, Ubuntu 20.04
Exécution de conteneur Containerd (v1.6.18)
Mise en réseau de conteneur Antrea (v1.11.2), Calico (v3.26.1), Multus CNI (v4.0.1, v3.8.0)
Registre de conteneur Harbor (v2.8.4)
Entrée Contrôleur NSX Advanced Load Balancer Essentials et Avi **** (v21.1.5-v21.1.6, v22.1.3-v22.1.4), NSX v4.1.0 (vSphere 8.0.u1), v3.2.2 (vSphere 7), Contour (v1.25.2, v1.24.5) Contour (v1.25.2, v1.24.5) Contour (v1.25.2, v1.24.5)
Stockage Interface de stockage de conteneur vSphere (v3.0.2*****) et stockage cloud natif vSphere Pilote Amazon EBS CSI (v1.18.0) et fournisseurs de cloud dans l'arborescence Pilote Azure Disk CSI (v1.28.1), pilote Azure File CSI (v1.28.0) et fournisseurs de cloud dans l'arborescence
Authentification OIDC et LDAP via Pinniped (v0.24.0)
Observabilité Fluent Bit (v2.1.2, v1.9.5), Prometheus (v2.43.0, v2.37.0)******, Grafana (v9.5.1)
Détection de services DNS externe (v0.13.4, v0.12.2)
Sauvegarde et migration Velero (v1.11.1)

* Pour obtenir la liste des versions de SDDC VMware Cloud on AWS compatibles avec cette version, reportez-vous à la Matrice d'interopérabilité des produits VMware.

** Pour obtenir la liste complète des versions de la CLI Tanzu compatibles avec cette version, reportez-vous à la Matrice d'interopérabilité des produits.

*** Tanzu Kubernetes Grid v1.6 est la dernière version qui prend en charge la création d'images Red Hat Enterprise Linux 7.

**** Sur vSphere 8 pour utiliser NSX Advanced Load Balancer avec un cluster de gestion autonome TKG et ses clusters de charge de travail, vous devez NSX ALB 22.1.2 ou version ultérieure et TKG 2.1.1 ou version ultérieure.

***** Version de vsphere_csi_driver. Pour obtenir la liste complète des composants de l'interface de stockage de conteneur vSphere inclus dans cette version, reportez-vous à la section Versions des composants.

****** Si vous mettez à niveau un cluster vers Kubernetes v1.25, vous devez mettre à niveau Prometheus au moins vers la version 2.37.0+vmware.3-tkg.1. Les versions antérieures du module Prometheus, par exemple version 2.37.0+vmware.1-tkg.1, ne sont pas compatibles avec Kubernetes 1.25.

Pour obtenir la liste complète des versions de Kubernetes fournies avec Tanzu Kubernetes Grid v2.4, reportez-vous à la section Versions de Kubernetes prises en charge ci-dessus.

Versions des composants

La version TKG v2.4.x inclut les versions de composants logiciels suivantes :

Remarque

Les versions précédentes de TKG incluaient des composants qui sont désormais distribués via le référentiel Tanzu Standard. Pour obtenir la liste de ces composants, reportez-vous aux Notes de mise à jour du référentiel Tanzu Standard.

Composant TKG v2.4
aad-pod-identity v1.8.15+vmware.2
gestionnaire de modules complémentaires v2.2+vmware.1
ako-operator v1.10.0_vmware.2*
antrea v1.11.2_vmware.1-advanced*
antrea-internetworking v1.11.1*
aws-cloud-controller-manager v1.27.1+vmware.1*
aws-ebs-csi-driver v1.18.0+vmware.3*
azuredisk-csi-driver v1.28.1+vmware.2*
azurefile-csi-driver v1.28.0+vmware.2*
calico_all v3.26.1+vmware.1*
capabilities-package v0.31.0-capabilities*
carvel-secretgen-controller v0.14.2+vmware.2
cloud-provider-azure v1.1.26+vmware.1,
v1.23.23+vmware.1,
v1.24.10+vmware.1
cloud_provider_vsphere v1.27.0+vmware.1*
cluster-api-provider-azure v1.9.2+vmware.1
cluster_api v1.4.5+vmware.1*
cluster_api_aws v2.1.3+vmware.0
cluster_api_vsphere v1.7.1+vmware.0*
cni_plugins v1.2.0+vmware.7*
containerd v1.6.18+vmware.1
coredns v1.10.1_vmware.7*
crash-diagnostics v0.3.7+vmware.7
cri_tools v1.26.0+vmware.7*
csi_attacher v4.3.0+vmware.2*,
v4.2.0+vmware.3*
csi_livenessprobe v2.10.0+vmware.2*,
v2.9.0+vmware.3*
csi_node_driver_registrar v2.8.0+vmware.2*,
v2.7.0+vmware.3*
csi_provisioner v3.5.0+vmware.2*,
v3.4.1+vmware.3*,
v3.4.0+vmware.3*
etcd v3.5.7_vmware.6*
external-snapshotter v6.2.2+vmware.2*,
v6.2.1+vmware.3*
guest-cluster-auth-service v1.3.0_tkg.2
image-builder v0.1.14+vmware.1
image-builder-resource-bundle v1.27.5+vmware.1-tkg.1*
imgpkg v0.36.0+vmware.2
jetstack_cert-manager v1.12.2+vmware.1*
k14s_kapp v0.55.0+vmware.2
k14s_ytt v0.45.0+vmware.2
contrôleur kapp v0.45.2+vmware.1
kbld v0.37.0+vmware.2
kube-vip v0.5.12+vmware.1
kube-vip-cloud-provider v0.0.5+vmware.1,
v0.0.4+vmware.4
kubernetes v1.27.5+vmware.1*,
v1.26.8+vmware.1*,
v1.25.13+vmware.1*
kubernetes-csi_external-resizer v1.8.0+vmware.2*,
v1.7.0+vmware.3*
sigs_kind kubernetes v1.27.5+vmware.1-tkg.1_v0.17.0*
kubernetes_autoscaler v1.27.5+vmware.1*
load-balancer-and-ingress-service (AKO) 1.10.2+vmware.1-tkg.1
metrics-server v0.6.2+vmware.1
pinniped v0.24.0+vmware.1-tkg.1
pinniped-post-deploy v0.24.0+vmware.1
sonobuoy v0.56.16+vmware.2
tanzu-framework v0.31.0*
tanzu-framework-addons v0.31.0*
tanzu-framework-management-packages v0.31.0*
tkg-bom v2.4.0*
tkg-core-packages v1.27.5+vmware.1-tkg.1*
tkg-standard-packages v2023.9.19*
tkg-storageclass-package v0.31.0*
tkg_telemetry v2.3.0+vmware.3*
Velero v1.11.1+vmware.1*
velero-mgmt-cluster-plugin v0.2.1+vmware.1*
velero-plugin-for-aws v1.7.1+vmware.1*
velero-plugin-for-csi v0.5.1+vmware.1*
velero-plugin-for-microsoft-azure v1.7.1+vmware.1*
velero-plugin-for-vsphere v1.5.1+vmware.1
vendir v0.33.1+vmware.2
vsphere_csi_driver v3.0.2+vmware.2*

* Indique un nouveau composant ou un nouveau numéro de version depuis la version précédente. TKG v2.3.0 est antérieur à la version v2.4.0, et la version v2.2.0 est antérieure à la version v2.3.0.

Pour obtenir la liste des versions de composants logiciels fournies avec TKG v2.4, utilisez imgpkg pour extraire les bundles de référentiels, puis répertorier leur contenu. Par exemple, pour répertorier les versions de composants fournies avec le référentiel Tanzu Standard pour TKG v2.4.0, exécutez la commande suivante :

imgpkg pull -b projects.registry.vmware.com/tkg/packages/standard/repo:v2023.9.19 -o standard-2023.9.19

Chemins de mise à niveau pris en charge

Dans le chemin de mise à niveau de TKG, la version v2.4 suit immédiatement la version v2.3.0.

Vous pouvez uniquement effectuer une mise à niveau vers Tanzu Kubernetes Grid v2.4.x à partir de la version v2.3.x. Si vous souhaitez effectuer une mise à niveau vers Tanzu Kubernetes Grid v2.4.x à partir d'une version antérieure à la version v2.3.x, vous devez d'abord effectuer une mise à niveau vers la version v2.3.x.

Lors de la mise à niveau des versions de Kubernetes sur des clusters de charge de travail, vous ne pouvez pas ignorer les versions mineures. Par exemple, vous ne pouvez pas mettre à niveau un cluster Tanzu Kubernetes directement de la version v1.25.x vers la version v1.27.x. Vous devez mettre à niveau un cluster de version v1.25.x vers la version v1.26.x avant de le mettre à niveau vers la version v1.27.x.

Dates de publication

Les dates de publication de Tanzu Kubernetes Grid v2.4 sont les suivantes :

  • v2.4.0: 28 septembre 2023

Changements de comportement et de documentation dans Tanzu Kubernetes Grid v2.4.

Tanzu Kubernetes Grid v2.4 ajoute le changement de documentation suivant par rapport à la version v2.3.0, qui est la dernière version précédente.

  • La documentation des modules Tanzu et les notes de mise à jour du référentiel de modules Tanzu Standard ont été déplacées vers une publication distincte qui couvre une instance de TKG déployée avec un superviseur et un cluster de gestion autonome.

Avis futurs de changements et d'obsolescences de comportement

Cette section fournit un avis préalable des changements de comportement et des obsolescences de fonctionnalités qui prendront effet dans les versions ultérieures, après les versions TKG v2.4.x.

Obsolescences des clusters de gestion et de charge de travail TKG sur AWS et Azure

Important

Tanzu Kubernetes Grid v2.4 (y compris les versions de correctifs) est la dernière version mineure de TKG qui prend en charge la création de clusters de gestion TKG autonomes et de clusters de charge de travail TKG sur AWS et Azure. La possibilité de créer des clusters de gestion TKG autonomes et des clusters de charge de travail TKG sur AWS et Azure sera supprimée dans Tanzu Kubernetes Grid version v2.5.

  • À partir de maintenant, VMware vous recommande d'utiliser Tanzu Mission Control pour créer des clusters AWS EKS et Azure AKS natifs au lieu de créer des clusters de gestion TKG autonomes ou de nouveaux clusters de charge de travail TKG sur AWS et Azure. Pour plus d'informations sur la création de clusters AWS EKS et Azure AKS natifs avec Tanzu Mission Control, reportez-vous aux sections Gestion du cycle de vie des clusters AWS EKS et Gestion du cycle de vie des clusters Azure AKS dans la documentation de Tanzu Mission Control.

  • Bien qu'il soit recommandé d'utiliser Tanzu Mission Control pour créer des clusters AWS EKS et Azure AKS natifs, la création et l'utilisation de clusters de gestion TKG autonomes et de clusters de charge de travail TKG sur AWS et Azure restent entièrement pris en charge pour toutes les versions de TKG, y compris TKG v2.4.x.

  • Pour plus d'informations sur la raison de la désapprobation par VMware des clusters TKG sur AWS et Azure, reportez-vous à la section VMware Tanzu s'aligne sur les tendances du secteur multicloud sur le blog VMware Tanzu.

Documentation utilisateur

La section Déploiement et gestion de clusters de gestion autonomes TKG 2.4 inclut des rubriques spécifiques aux clusters de gestion autonomes qui ne sont pas pertinentes pour l'utilisation de TKG avec un superviseur vSphere with Tanzu.

Pour plus d'informations, reportez-vous à la section Rechercher les documents TKG appropriés pour votre déploiement sur la page Documentation de VMware Tanzu Kubernetes Grid.

Problèmes résolus

Résolu dans la version v2.4.0

Les problèmes suivants documentés sous Problèmes connus dans les versions antérieures de Tanzu Kubernetes Grid sont résolus dans Tanzu Kubernetes Grid v2.4.

  • La planification des composants échoue lors de l'utilisation de clusters avec une capacité limitée

    Si vous déployez des clusters avec un seul nœud de plan de contrôle, un seul nœud worker ou des clusters de petite ou moyenne taille pour les clusters de gestion et les clusters de charge de travail, vous pouvez rencontrer une contention de planification des ressources.

Problèmes connus

Voici les problèmes connus dans Tanzu Kubernetes Grid v2.4.x. Tous les problèmes connus présents dans la version v2.4.0 qui ont été résolus dans une version de correctif v2.4.x ultérieure sont répertoriés sous la section Problèmes résolus pour cette version de correctif.

Vous trouverez des solutions supplémentaires aux problèmes fréquemment rencontrés dans les sections Dépannage des problèmes de cluster de gestion et Dépannage des problèmes de cluster de charge de travail ou dans les articles de la base de connaissances VMware.

Opérations de cluster

  • Impossible de créer des clusters de charge de travail basés sur des versions TKr non actuelles avec la CNI Antrea

    Vous ne pouvez pas créer un cluster de charge de travail qui utilise la CNI Antrea et exécute des versions de Kubernetes livrées avec des versions antérieures de TKG, telles que Kubernetes v1.23.10, qui était la version de Kubernetes par défaut dans TKG v1.6.1, comme indiqué dans la section Versions de Kubernetes prises en charge dans Tanzu Kubernetes Grid v2.4.

    Solution : Créez un cluster de charge de travail qui exécute Kubernetes 1.27.x, 1.26.x ou 1.25.x. Le projet Kubernetes recommande d'exécuter des composants sur la version de correctif la plus récente de toute version mineure actuelle.

Mise en réseau

Remarque

à partir de la version 4.0, VMware NSX-T Data Center est renommé « VMware NSX ».

  • Le mode d'entrée NodePortLocal de NSX ALB n'est pas pris en charge pour le cluster de gestion

    Dans TKG v2.3, vous ne pouvez pas exécuter NSX Advanced Load Balancer (ALB) comme type de service avec le mode d'entrée NodePortLocal pour le trafic vers le cluster de gestion.

    Ce problème n'affecte pas la prise en charge de l'entrée NodePortLocal aux clusters de charge de travail, comme décrit dans la section Entrée L7 en mode NodePortLocal.

    Solution : configurez les clusters de gestion avec AVI_INGRESS_SERVICE_TYPE défini sur NodePort ou ClusterIP. La valeur par défaut est NodePort.

Stockage

  • Le cluster de charge de travail ne peut pas distribuer le stockage sur plusieurs banques de données

    Vous ne pouvez pas activer un cluster de charge de travail pour distribuer le stockage entre plusieurs banques de données, comme décrit dans la section Déployer un cluster qui utilise un cluster de banques de données. Si vous balisez plusieurs banques de données dans un cluster de banques de données comme base de la stratégie de stockage d'un cluster de charge de travail, ce cluster n'utilise qu'une seule des banques de données.

    Solution : Aucune

CLI Tanzu

  • La CLI Tanzu répertorie tanzu management-cluster osimage

    Le groupe de commandes management-cluster répertorie tanzu management-cluster osimage. Cette fonctionnalité est actuellement en développement, et réservée pour une utilisation ultérieure.

    Solution : n'utilisez pas tanzu management-cluster osimage.

vSphere

  • Le déploiement du cluster de gestion sur vSphere 7 échoue lors de l'attente de la disponibilité du plan de contrôle du cluster

    Si vous spécifiez un réseau de VM lors du déploiement d'un cluster de gestion vers vSphere 7, le déploiement du cluster échoue avec l'erreur unable to set up management cluster: unable to wait for cluster control plane available: control plane is not available yet.

    Solution : Ensuite, le réseau « Réseau de VM » dispose de plusieurs sous-réseaux configurés avec des adresses IP statiques pour VsVip et ServiceEngine. Définissez exclude_discovered_subnets sur True sur le réseau de VM, pour ignorer les sous-réseaux détectés et autoriser le placement des services virtuels sur les moteurs de service.

  • Les zones de disponibilité peuvent être supprimées lorsque des VM leur sont attribuées

    Si vous supprimez une zone de disponibilité qui contient des VM, celles-ci ne peuvent pas être supprimées par la suite.

    Solution : Supprimez toutes les VM d'une zone de disponibilité avant de la supprimer.

  • La création de clusters de charge de travail échoue en raison de l'épuisement des sessions VPXD

    Lors de la création de clusters de charge de travail sur vSphere, la création échoue avec l'erreur suivante :

    vSphere config validation failed: failed to get VC client: failed to create vc client: Post "https://address/sdk": EOF ". VCenter vpxd.log report error: Out of HTTP sessions: Limited to 2000
    

    Cela se produit en raison de l'épuisement des sessions vCenter Server.

    Solution : Reportez-vous à l'article 50114010 de la base de connaissances VMware.

  • Les pools de nœuds créés avec des nœuds small peuvent se bloquer à l'état Provisioning

    Les pools de nœuds créés avec le nœud SIZE configurés comme small peuvent se bloquer à l'état Provisioning et ne jamais passer à l'état Running.

    Solution : configurez le pool de nœuds avec des nœuds de taille au moins medium.

Image-Builder

  • Échecs de test goss ignorés lors du processus de création d'image

    Lorsque vous exécutez Kubernetes Image Builder pour créer une image de machine personnalisée Linux personnalisée, les tests goss python-netifaces, python-requests et ebtables échouent. La sortie de la commande signale les échecs. Les erreurs peuvent être ignorées ; elles n'empêchent pas la création d'une image réussie.

Référentiel Tanzu Standard v2023.9.19

Avec TKG v2.4, le référentiel de modules Tanzu Standard est utilisé avec version et distribué séparément de TKG, et son contrôle de version est basé sur un horodatage. Pour TKG v2.4, la dernière version compatible du référentiel Tanzu Standard est v2023.9.19 et les deux sont publiées à la même date.

Les futures versions du référentiel Tanzu Standard peuvent être publiées plus fréquemment que les versions de TKG, mais toutes les versions de correctifs conserveront les compatibilités existantes entre les versions mineures de TKG et de Tanzu Standard.

Pour plus d'informations, reportez-vous aux Notes de mise à jour de Tanzu Standard v2023.9.19.

check-circle-line exclamation-circle-line close-line
Scroll to top icon