Pour utiliser l'API Service Tanzu Kubernetes Grid v1alpha2 pour le provisionnement de clusters Tanzu Kubernetes, respectez la liste complète des conditions requises.

Conditions requises pour l'utilisation de l'API TKGS v1alpha2

L'API v1alpha2 du Service Tanzu Kubernetes Grid fournit un ensemble d'améliorations robustes pour le provisionnement de clusters Tanzu Kubernetes. Pour plus d'informations, consultez API TKGS v1alpha2 pour le provisionnement des clusters Tanzu Kubernetes.

Pour bénéficier des nouvelles fonctionnalités fournies par l'API v1alpha2 du Service Tanzu Kubernetes Grid, votre environnement doit répondre à chacune des exigences suivantes.

Serveur Référence
La Gestion de la charge de travail est activée avec la mise en réseau prise en charge, NSX-T Data Center ou vSphere vDS natif.
Note : Une fonctionnalité particulière peut nécessiter un type spécifique de mise en réseau. Si c'est le cas, cela est rappelé dans la rubrique de la fonctionnalité concernée.

Reportez-vous à la section Conditions préalables à la configuration de vSphere with Tanzu sur un cluster vSphere.

Reportez-vous à la section Activer la gestion de la charge de travail avec la mise en réseau NSX-T Data Center.

Reportez-vous à la section Activer la gestion de la charge de travail avec la mise en réseau vSphere.

Le système vCenter Server hébergeant la Gestion de la charge de travail est mis à jour vers la version 7 Update 3 ou une version ultérieure.

Reportez-vous aux notes de mise à jour Mise à jour de vCenter Server et versions des correctifs.

Pour obtenir des instructions de mise à jour, reportez-vous à Mise à niveau de vCenter Server Appliance.

Tous les hôtes ESXi prenant en charge le cluster vCenter Server sur lequel la Gestion de la charge de travail est activée sont mis à jour vers la version 7 Update 3 ou une version ultérieure.

Reportez-vous aux Notes de mise à jour de ESXi et des correctifs.

Pour obtenir des instructions de mise à jour, reportez-vous à Mise à niveau d'hôtes ESXi.

Espaces de noms vSphere est mis à jour vers la version v0.0.11 ou une version ultérieure.

Pour plus d'informations sur la version, reportez-vous aux Notes de mise à jour de vSphere with Tanzu.

Pour obtenir des instructions de mise à jour, reportez-vous à Mise à jour de l'environnement vSphere with Tanzu.

Cluster superviseur est mis à jour vers la version v1.21.0+vmware.wcp.2 ou une version ultérieure.

Pour plus d'informations sur la version, reportez-vous aux Notes de mise à jour de vSphere with Tanzu.

Pour obtenir des instructions de mise à jour, reportez-vous à Mettre à jour le Cluster superviseur en effectuant une mise à jour des espaces de noms vSphere.

Vous devez utiliser Tanzu Kubernetes version v1.21.2---vmware.1-tkg.1.ee25d55 ou version ultérieure.

Pour connaître les détails sur la version, consultez Vérifier la compatibilité du cluster Tanzu Kubernetes pour la mise à jour.

Pour obtenir des instructions sur le provisionnement de nouveaux clusters, reportez-vous à Exemple de code YAML pour le provisionnement de clusters Tanzu Kubernetes à l'aide de l'API TKGS v1alpha2.

Pour obtenir des instructions sur la mise à jour d'un cluster existant, reportez-vous à Mise à jour d'une version de Tanzu Kubernetes après la conversion de la spécification de cluster vers l'API TKGS v1alpha2.

Considérations relatives au CNI pour les limites de nœuds

Le paramètre de spécification de cluster spec.settings.network.pods.cidrBlocks est défini par défaut sur 192.168.0.0/16. Reportez-vous à la section API TKGS v1alpha2 pour le provisionnement des clusters Tanzu Kubernetes.

Si vous personnalisez ce paramètre, la taille minimale de bloc CIDR des espaces est de /24. Cependant, soyez prudent lorsque vous limitez le masque de sous-réseau pods.cidrBlocks au-delà de /16.

TKGS alloue à chaque nœud de cluster un sous-réseau /24 alloué à partir de pods.cidrBlocks. Cette allocation est déterminée par le paramètre du gestionnaire de contrôleur Kubernetes NodeIPAMController nommé NodeCIDRMaskSize, qui définit la taille du masque de sous-réseau pour le CIDR de nœud dans le cluster. Le masque de sous-réseau de nœud par défaut est /24 pour IPv4.

Étant donné que chaque nœud d'un cluster obtient un sous-réseau /24 à partir de pods.cidrBlocks, vous pouvez manquer d'adresses IP de nœud si vous utilisez une taille de masque de sous-réseau trop restrictive pour le cluster que vous provisionnez.

Les limites de nœud suivantes s'appliquent à un cluster Tanzu Kubernetes provisionné avec le CNI Antrea ou Calico.

/16 == 150 nœuds max. (selon ConfigMax)

/17 == 128 nœuds max.

/18 == 64 nœuds max.

/19 == 32 nœuds max.

/20 == 16 nœuds max.

/21 == 8 nœuds max.

/22 == 4 nœuds max.

/23 == 2 nœuds max.

/24 == 1 nœud max.