Para utilizar la API v1alpha2 de servicio Tanzu Kubernetes Grid para el aprovisionamiento de clústeres de Tanzu Kubernetes, cumpla con la lista completa de requisitos.

Requisitos para usar la API v1alpha2 de TKGS

La API v1alpha2 de servicio Tanzu Kubernetes Grid proporciona un conjunto sólido de mejoras para el aprovisionamiento de clústeres de Tanzu Kubernetes. Para obtener más información, consulte API v1alpha2 de TKGS para aprovisionar clústeres de Tanzu Kubernetes.

Para aprovechar la nueva funcionalidad que proporciona la API v1alpha2 de servicio Tanzu Kubernetes Grid, el entorno debe cumplir con cada uno de los siguientes requisitos.

Requisito Referencia
Administración de cargas de trabajo está habilitada con redes compatibles, ya sea NSX-T Data Center o vSphere vDS nativa.
Nota: Una característica en particular puede requerir un tipo específico de redes. Si es así, se indica en el tema de esa función.

Consulte Requisitos previos para configurar vSphere with Tanzu en un clúster de vSphere.

Consulte Habilitar la administración de cargas de trabajo con redes de NSX-T Data Center.

Consulte Habilitar la administración de cargas de trabajo con redes de vSphere.

El vCenter Server que aloja Administración de cargas de trabajo se actualizó a la versión 7 Update 3 o una posterior.

Consulte las notas de la versión Versiones de actualización y revisión de vCenter Server.

Para obtener instrucciones de actualización, consulte Actualizar vCenter Server Appliance.

Todos los hosts ESXi que admiten el clúster de vCenter Server en el que está habilitada Administración de cargas de trabajo se actualizan a la versión 7 Update 3 o una posterior.

Consulte las notas de la versión de actualización y revisión de ESXi.

Para obtener instrucciones de actualización, consulte Actualizar hosts ESXi.

espacios de nombres de vSphere se actualiza a v0.0.11 o una versión posterior.

Para obtener más información, consulte las notas de la versión de vSphere with Tanzu.

Para obtener instrucciones de actualización, consulte Actualizar el entorno de vSphere with Tanzu.

clúster supervisor se actualiza a v1.21.0+vmware.wcp.2 o una versión posterior.

Para obtener más información, consulte las notas de la versión de vSphere with Tanzu.

Para obtener instrucciones de actualización, consulte Actualizar clúster supervisor mediante una actualización de los espacios de nombres de vSphere.

Debe utilizar Tanzu Kubernetes versión v1.21.2---vmware.1-tkg.1.ee25d55 o una posterior.

Para obtener detalles de la versión, consulte Comprobar la compatibilidad del clúster de Tanzu Kubernetes para actualizar.

Para obtener instrucciones sobre cómo aprovisionar clústeres nuevos, consulte YAML de ejemplo para el aprovisionamiento de clústeres de Tanzu Kubernetes mediante la API v1alpha2 de TKGS.

Para obtener instrucciones sobre cómo actualizar un clúster existente, consulte Actualizar una versión de Tanzu Kubernetes después de convertir la especificación del clúster a la API v1alpha2 de TKGS.

Consideraciones de CNI para los límites de nodos

El valor predeterminado de la configuración de la especificación del clúster spec.settings.network.pods.cidrBlocks es 192.168.0.0/16. Consulte API v1alpha2 de TKGS para aprovisionar clústeres de Tanzu Kubernetes.

Si personaliza, el tamaño mínimo del bloque CIDR de los pods es /24. Sin embargo; tenga cuidado al restringir la máscara de subred de pods.cidrBlocks más allá de /16.

TKGS asigna a cada nodo de clúster una subred /24 creada desde pods.cidrBlocks. Esta asignación se determina mediante el parámetro Administrador de controladoras de Kubernetes > NodeIPAMController denominado NodeCIDRMaskSize que establece el tamaño de la máscara de subred para el CIDR de nodo en el clúster. La máscara de subred del nodo predeterminada es /24 para IPv4.

Debido a que cada nodo de un clúster obtiene una subred /24 de pods.cidrBlocks, puede quedarse sin direcciones IP de nodo si utiliza un tamaño de máscara de subred que sea demasiado restrictivo para el clúster que está aprovisionando.

Los siguientes límites de nodos se aplican a un clúster de Tanzu Kubernetes aprovisionado con la CNI de Antrea o Calico.

/16 == 150 nodos máx. (por ConfigMax)

/17 == 128 nodos máx.

/18 == 64 nodos como máximo

/19 == 32 nodos como máximo

/20 == 16 nodos como máximo

/21 == 8 nodos como máximo

/22 == 4 nodos como máximo

/23 == 2 nodos como máximo

/24 == 1 nodo máx.