Pour utiliser l'API Service Tanzu Kubernetes Grid v1alpha2 pour le provisionnement de clusters Tanzu Kubernetes, respectez la liste complète des conditions requises.
Conditions requises pour l'utilisation de l'API TKGS v1alpha2
L'API v1alpha2 du Service Tanzu Kubernetes Grid fournit un ensemble d'améliorations robustes pour le provisionnement de clusters Tanzu Kubernetes. Pour plus d'informations, consultez API TKGS v1alpha2 pour le provisionnement des clusters Tanzu Kubernetes.
Pour bénéficier des nouvelles fonctionnalités fournies par l'API v1alpha2 du Service Tanzu Kubernetes Grid, votre environnement doit répondre à chacune des exigences suivantes.
Serveur | Référence |
---|---|
La
Gestion de la charge de travail est activée avec la mise en réseau prise en charge, NSX-T Data Center ou vSphere vDS natif.
Note : Une fonctionnalité particulière peut nécessiter un type spécifique de mise en réseau. Si c'est le cas, cela est rappelé dans la rubrique de la fonctionnalité concernée.
|
Reportez-vous à la section Conditions préalables à la configuration de vSphere with Tanzu sur un cluster vSphere. Reportez-vous à la section Activer la gestion de la charge de travail avec la mise en réseau NSX-T Data Center. Reportez-vous à la section Activer la gestion de la charge de travail avec la mise en réseau vSphere. |
Le système vCenter Server hébergeant la Gestion de la charge de travail est mis à jour vers la version 7 Update 3 ou une version ultérieure. |
Reportez-vous aux notes de mise à jour Mise à jour de vCenter Server et versions des correctifs. Pour obtenir des instructions de mise à jour, reportez-vous à Mise à niveau de vCenter Server Appliance. |
Tous les hôtes ESXi prenant en charge le cluster vCenter Server sur lequel la Gestion de la charge de travail est activée sont mis à jour vers la version 7 Update 3 ou une version ultérieure. |
Reportez-vous aux Notes de mise à jour de ESXi et des correctifs. Pour obtenir des instructions de mise à jour, reportez-vous à Mise à niveau d'hôtes ESXi. |
Espaces de noms vSphere est mis à jour vers la version v0.0.11 ou une version ultérieure. |
Pour plus d'informations sur la version, reportez-vous aux Notes de mise à jour de vSphere with Tanzu. Pour obtenir des instructions de mise à jour, reportez-vous à Mise à jour de l'environnement vSphere with Tanzu. |
Cluster superviseur est mis à jour vers la version |
Pour plus d'informations sur la version, reportez-vous aux Notes de mise à jour de vSphere with Tanzu. Pour obtenir des instructions de mise à jour, reportez-vous à Mettre à jour le Cluster superviseur en effectuant une mise à jour des espaces de noms vSphere. |
Vous devez utiliser Tanzu Kubernetes version |
Pour connaître les détails sur la version, consultez Vérifier la compatibilité du cluster Tanzu Kubernetes pour la mise à jour. Pour obtenir des instructions sur le provisionnement de nouveaux clusters, reportez-vous à Exemple de code YAML pour le provisionnement de clusters Tanzu Kubernetes à l'aide de l'API TKGS v1alpha2. Pour obtenir des instructions sur la mise à jour d'un cluster existant, reportez-vous à Mise à jour d'une version de Tanzu Kubernetes après la conversion de la spécification de cluster vers l'API TKGS v1alpha2. |
Considérations relatives au CNI pour les limites de nœuds |
Le paramètre de spécification de cluster Si vous personnalisez ce paramètre, la taille minimale de bloc CIDR des espaces est de /24. Cependant, soyez prudent lorsque vous limitez le masque de sous-réseau TKGS alloue à chaque nœud de cluster un sous-réseau /24 alloué à partir de Étant donné que chaque nœud d'un cluster obtient un sous-réseau /24 à partir de Les limites de nœud suivantes s'appliquent à un cluster Tanzu Kubernetes provisionné avec le CNI Antrea ou Calico. /16 == 150 nœuds max. (selon ConfigMax) /17 == 128 nœuds max. /18 == 64 nœuds max. /19 == 32 nœuds max. /20 == 16 nœuds max. /21 == 8 nœuds max. /22 == 4 nœuds max. /23 == 2 nœuds max. /24 == 1 nœud max. |