Reportez-vous à ces instructions pour tester un autoscaler de cluster installé.
Configuration requise
Cette tâche part du principe que vous avez installé l'autoscaler du cluster sur un cluster TKG.
Tester l'autoscaler du cluster
Pour vérifier que l'autoscaler met automatiquement à l'échelle les nœuds worker, déployez une application, puis dimensionner le nombre de réplicas dans le déploiement. Autoscaler montera en puissance les nœuds worker une fois les ressources de nœud insuffisantes.
- Créez la définition d'application suivante nommée
app.yaml
.apiVersion: v1 kind: Namespace metadata: name: app labels: pod-security.kubernetes.io/enforce: privileged --- apiVersion: v1 kind: Service metadata: name: application-cpu namespace: app labels: app: application-cpu spec: type: ClusterIP selector: app: application-cpu ports: - protocol: TCP name: http port: 80 targetPort: 80 --- apiVersion: apps/v1 kind: Deployment metadata: name: application-cpu namespace: app labels: app: application-cpu spec: selector: matchLabels: app: application-cpu replicas: 1 strategy: type: RollingUpdate rollingUpdate: maxSurge: 1 maxUnavailable: 0 template: metadata: labels: app: application-cpu spec: containers: - name: application-cpu image: wcp-docker-ci.artifactory.eng.vmware.com/app-cpu:v1.0.0 imagePullPolicy: Always ports: - containerPort: 80 resources: requests: memory: 50Mi cpu: 500m limits: memory: 500Mi cpu: 2000m
- Créez l'application.
kubectl apply -f app.yaml
- Montez en puissance les réplicas de l'application pour déclencher l'autoscaler.
Par exemple, augmentez le nombre de
spec.selector.replicas
de 1 à un nombre plus grand afin que des nœuds worker supplémentaires soient requis. - Mettez à jour l'application.
kubectl apply -f app.yaml
- Vérifiez que des nœuds worker supplémentaires sont créés pour gérer la charge.
Autoscaler augmentera le nombre de nœuds worker une fois que les ressources du nœud sont insuffisantes.