Cette rubrique explique comment sauvegarder et restaurer l'infrastructure de cluster pour Tanzu Kubernetes Grid (TKG) avec un cluster de gestion autonome sur vSphere en procédant comme suit :
Remarque
- VMware ne prend pas en charge l'utilisation de Velero pour sauvegarder des clusters de gestion autonomes TKG.
- Si un cluster de gestion autonome est reconfiguré après son déploiement, sa recréation comme décrit ici risque de ne pas récupérer toutes ses ressources.
Pour sauvegarder et restaurer les charges de travail et les volumes de stockage dynamiques hébergés sur des clusters de charge de travail Tanzu Kubernetes Grid (TKG) avec un cluster de gestion autonome, reportez-vous à la section Sauvegarder et restaurer des charges de travail de cluster.
Pour sauvegarder et restaurer des clusters vSphere with Tanzu, y compris les clusters superviseurs et les clusters de charge de travail qu'ils créent, reportez-vous à la section Sauvegarde et restauration de vSphere with Tanzu dans la documentation de VMware vSphere 8.0.
Attention :
- Cette fonctionnalité est dans l'état Version d'évaluation technique non pris en charge. Reportez-vous à la section États des fonctionnalités TKG.
Vous pouvez utiliser Velero, un outil standard de la communauté open source, pour sauvegarder et restaurer l'infrastructure et les charges de travail de clusters de gestion autonome TKG.
Velero prend en charge divers fournisseurs de stockage pour stocker ses sauvegardes. Velero prend également en charge les éléments suivants :
Un abonnement Tanzu Kubernetes Grid inclut la prise en charge de la distribution Velero testée et compatible de VMware disponible sur la page de téléchargements Tanzu Kubernetes Grid.
Pour sauvegarder et restaurer des clusters TKG, vous avez besoin des éléments suivants :
Une fois les conditions préalables remplies ci-dessus, vous pouvez également utiliser Velero pour migrer les charges de travail entre les clusters. Pour obtenir des instructions, reportez-vous aux sections Migration des clusters et Filtrage des ressources dans la documentation de Velero.
Si vous avez déjà installé velero CLI avec une version antérieure de TKG, vous devez mettre à niveau Velero vers la version v1.11.1. Pour plus d'informations, reportez-vous à la section Mettre à niveau Velero ci-dessous.
Pour installer Velero CLI v1.11.1, procédez comme suit :
.gz
pour le système d'exploitation de votre poste de travail. Son nom de fichier commence par velero-linux-
, velero-mac-
ou velero-windows64-
.Utilisez la commande gunzip
ou l'outil d'extraction de votre choix pour décompresser le fichier binaire :
gzip -d <RELEASE-TARBALL-NAME>.gz
Renommez le fichier binaire de CLI de votre plate-forme en velero
, assurez-vous qu'il est exécutable, puis ajoutez-le à la variable PATH
.
/usr/local/bin
et renommez-le en velero
.chmod +x /usr/local/bin/velero
Program Files\velero
et copiez-y le fichier binaire.velero.exe
.velero
, sélectionnez Propriétés (Properties) > Sécurité (Security) et assurez-vous que votre compte d'utilisateur dispose de l'autorisation Contrôle total (Full Control).env
.Path
sous Variables système (System variables), puis cliquez sur Modifier (Edit).velero
.Si vous avez mis à niveau TKG de la version v2.3 vers la version v2.4, vous devez mettre à niveau Velero vers la version v1.11.1.
ImportantVelero v1.10.x utilise des définitions de ressources personnalisées (CRD, Custom Resource Definition) différentes, une dénomination de composants différente et fonctionne différemment de la version v1.9.x. Si vous utilisiez toujours Velero v1.9.x avec TKG 2.3 et que vous avez effectué la mise à niveau vers TKG 2.4, vous devez mettre à niveau Velero de la version v1.9.x vers la version v1.10.x avant de pouvoir effectuer la mise à niveau vers la version v1.11.1. Pour obtenir des instructions sur la mise à niveau de Velero de la version v1.9.x vers la version v1.10.x, suivez la procédure pour Mettre à niveau Velero dans la documentation de TKG 2.3 avant de mettre à niveau Velero vers la version v1.11.1.
Pour mettre à niveau Velero de la version v1.10.x vers la version v1.11.1, procédez comme suit.
Mettez à jour les définitions CRD avec le fichier binaire Velero v1.11.1.
velero install --crds-only --dry-run -o yaml | kubectl apply -f -
Mettez à jour la configuration du déploiement Velero pour utiliser la nouvelle version de Velero et la version du plug-in Velero pour votre infrastructure.
kubectl set image deployment/velero \
velero=velero/velero:v1.11.1 \
velero-plugin-for-vsphere=velero/velero-plugin-for-vsphere:v1.5.1 \
--namespace velero
kubectl set image deployment/velero \
velero=velero/velero:v1.11.1 \
velero-plugin-for-aws=velero/velero-plugin-for-aws:v1.7.1 \
--namespace velero
kubectl set image deployment/velero \
velero=velero/velero:v1.11.1 \
velero-plugin-for-microsoft-azure=velero/velero-plugin-for-microsoft-azure:v1.7.1 \
--namespace velero
(Facultatif) Si vous utilisez l'ensemble de démons node
, mettez à jour la version de l'agent de nœud.
kubectl set image daemonset/node-agent \
node-agent=velero/velero:v1.11.1 \
--namespace velero
Pour plus d'informations, reportez-vous à la section Mise à niveau vers Velero 1.11 dans la documentation de Velero.
Pour sauvegarder le contenu du cluster de charge de travail Tanzu Kubernetes Grid, vous avez besoin des emplacements de stockage pour les éléments suivants :
Reportez-vous à la section Backup Storage Locations and Volume Snapshot Locations dans la documentation de Velero. Velero prend en charge divers fournisseurs de stockage, qui peuvent être les suivants :
VMware recommande de dédier un compartiment de stockage unique à chaque cluster.
Pour configurer MinIO :
Exécutez l'image de conteneur minio
avec les informations d'identification MinIO et un emplacement de stockage, par exemple :
$ docker run -d --name minio --rm -p 9000:9000 -e "MINIO_ACCESS_KEY=minio" -e "MINIO_SECRET_KEY=minio123" -e "MINIO_DEFAULT_BUCKETS=mgmt" gcr.io/velero-gcp/bitnami/minio:2021.6.17-debian-10-r7
Enregistrez les informations d'identification dans un fichier local à transmettre à l'option --secret-file
de velero install
, par exemple :
[default]
aws_access_key_id=minio
aws_secret_access_key=minio123
Sur vSphere, les sauvegardes de stockage d'objets de cluster et les snapshots de volume sont enregistrés dans le même emplacement de stockage. Cet emplacement doit être un stockage externe compatible S3 sur Amazon Web Services (AWS) ou un fournisseur S3, tel que MinIO.
Pour configurer le stockage de Velero sur vSphere, reportez-vous à la section Plug-in Velero pour vSphere dans le cluster Vanilla Kubernetes pour le plug-in v1.5.1.
Pour configurer le stockage pour Velero sur AWS, suivez les procédures du référentiel Plug-ins Velero pour AWS :
Configurez le stockage S3 si nécessaire pour chaque plug-in. Le plug-in de magasin d'objets stocke et récupère les sauvegardes d'objets de cluster, et l'outil de snapshot de volume stocke et récupère les volumes de données.
Pour configurer le stockage pour Velero sur Azure, suivez les procédures du référentiel Plug-ins Velero pour Azure :
Configurez le stockage S3 si nécessaire pour chaque plug-in. Le plug-in de magasin d'objets stocke et récupère les sauvegardes d'objets de cluster, et l'outil de snapshot de volume stocke et récupère les volumes de données.
Pour sauvegarder des objets de cluster de charge de travail, installez le serveur Velero v1.11.1 sur le cluster de gestion autonome et vérifiez les installations.
Pour installer Velero, exécutez velero install
avec les options suivantes :
--provider $PROVIDER
: Par exemple, aws
--plugins projects.registry.vmware.com/tkg/velero/velero-plugin-for-aws:v1.7.1_vmware.1
--bucket $BUCKET
: Nom de votre compartiment S3--backup-location-config region=$REGION
: Région AWS dans laquelle se trouve le compartiment--snapshot-location-config region=$REGION
: Région AWS dans laquelle se trouve le compartiment--kubeconfig
, pour installer le serveur Velero sur un cluster autre que celui actuellement défini par défaut.(Facultatif) --secret-file ./VELERO-CREDS
: une façon de donner à Velero l'accès à un compartiment S3 sur AWS consiste à transmettre à cette option un fichier VELERO-CREDS
local qui ressemble à :
[default]
aws_access_key_id=<AWS_ACCESS_KEY_ID>
aws_secret_access_key=<AWS_SECRET_ACCESS_KEY>
Pour obtenir des options supplémentaires, reportez-vous à la section Install and start Velero.
L'exécution de cette commande velero install
crée un espace de noms appelé velero
sur le cluster, dans lequel un déploiement nommé velero
est placé.
Les paramètres suivants sont requis :
--plugins projects.registry.vmware.com/tkg/velero/velero-mgmt-cluster-plugin:v0.2.1_vmware.1
RemarqueVous pouvez ajouter plusieurs options séparées par une virgule. Par exemple :
--plugins projects.registry.vmware.com/tkg/velero/velero-plugin-for-aws:v1.7.1_vmware.1,projects.registry.vmware.com/tkg/velero/velero-mgmt-cluster-plugin:v0.2.1_vmware.1
--snapshot-location-config
Une fois la commande velero install
terminée, vérifiez que Velero a bien été installé :
Vérifiez que l'état de l'espace Velero est Running
:
kubectl -n velero get pod
NAME READY STATUS RESTARTS AGE
velero-78fdbcd446-v5cqr 1/1 Running 0 3h41m
Vérifiez que l'emplacement de sauvegarde se trouve dans la phase Available
:
velero backup-location get
NAME PROVIDER BUCKET/PREFIX PHASE LAST VALIDATED ACCESS MODE DEFAULT
default aws mgmt Available 2022-11-11 05:55:55 +0000 UTC ReadWrite true
Pour sauvegarder tous les objets de cluster de charge de travail gérés par un cluster de gestion autonome, exécutez :
velero backup create my-backup --exclude-namespaces tkg-system --include-resources cluster.cluster.x-k8s.io --wait
Remarque
--exclude-namespaces tkg-system
exclut le cluster de gestion lui-même.
--include-resources cluster.cluster.x-k8s.io
inclut les objets du cluster de charge de travailVMware recommande de sauvegarder les clusters de charge de travail immédiatement après avoir apporté des modifications structurelles, telles que la montée ou la descente en puissance. Cela évite une non-correspondance entre les objets de sauvegarde et l'infrastructure physique qui peut faire échouer le processus de restauration.
Lorsque des objets de cluster sont modifiés après la sauvegarde la plus récente, l'état du système après une restauration ne correspond pas à l'état le plus récent souhaité. Ce problème est appelé « dérive ». Reportez-vous à la section Gestion des dérives ci-dessous pour savoir comment détecter et récupérer à partir de certains types courants de dérive.
Pour réduire la dérive, VMware recommande d'utiliser Velero pour planifier des sauvegardes fréquentes et régulières. Par exemple, pour sauvegarder tous les clusters de charge de travail quotidiennement et conserver chaque sauvegarde pendant 14 jours :
velero create schedule daily-bak --schedule="@every 24h" --exclude-namespaces tkg-system --include-resources cluster.cluster.x-k8s.io --ttl 336h0m0s
Pour plus d'options de planification de Velero, reportez-vous à la section Schedule a Backup dans la documentation de Velero.
kubeconfig
après la restaurationLorsque vous utilisez Velero pour restaurer un cluster de charge de travail, vous devez distribuer son nouveau fichier kubeconfig
à toute personne qui l'utilise :
Régénérez kubeconfig
:
tanzu cluster kubeconfig get CLUSTER-NAME --namespace NAMESPACE
Distribuez la sortie de la commande ci-dessus à tous ceux qui utilisent les clusters, afin de remplacer leur ancien fichier kubeconfig
.
kubeconfig
ne contiennent pas d'identités ni d'informations d'identification et peuvent être distribués en toute sécurité, comme décrit dans la section Apprendre à utiliser Pinniped pour l'authentification fédérée sur les clusters Kubernetes dans la documentation de Pinniped.Pour restaurer un cluster de gestion autonome et les objets du cluster de charge de travail qu'il gère, recréez le cluster de gestion à partir de son fichier de configuration, utilisez Velero pour restaurer ses clusters de charge de travail et distribuez de nouveaux fichiers kubeconfig
aux personnes qui les utilisent :
Si vous suspectez une dérive entre la sauvegarde la plus récente des objets de cluster de charge de travail et leur état d'exécution actuel, utilisez l'outil Détecteur de dérive pour générer un rapport de correction, comme décrit dans la section Utilisation du détecteur de dérive.
Assurez-vous que toutes les modifications de configuration qui ont été apportées au cluster de gestion après son déploiement initial sont appliquées dans son fichier de configuration ou dans les variables d'environnement. Sinon, il ne sera pas restauré à son état le plus récent.
Recréez le cluster de gestion à partir de son fichier de configuration, mgmt-cluster-config.yaml
ici, comme décrit dans Déployer des clusters de gestion à partir d'un fichier de configuration.
VSphereFailureDomain
et VSphereDeploymentZone
, par exemple en incluant --az-file vsphere-zones.yaml
dans la commande tanzu mc create
.Immédiatement après la création du cluster de gestion, il ne doit y avoir qu'une seule TKr :
tanzu kubernetes-release get
NAME VERSION COMPATIBLE ACTIVE UPDATES AVAILABLE
v1.27.5---vmware.2-tkg.1 v1.27.5+vmware.1-tkg.1 True True
Patientez quelques minutes jusqu'à ce que toutes les TKr utilisées par les clusters de charge de travail sauvegardés soient disponibles :
tanzu kubernetes-release get
NAME VERSION COMPATIBLE ACTIVE UPDATES AVAILABLE
v1.25.13---vmware.2-tkg.2 v1.25.13+vmware.2-tkg.2 True True
v1.26.8---vmware.1-tkg.1 v1.26.8+vmware.1-tkg.1 True True
v1.27.5---vmware.2-tkg.1 v1.27.5+vmware.1-tkg.1 True True
Installez Velero sur le cluster de gestion, en suivant les instructions Déployer le serveur Velero sur des clusters ci-dessus. Assurez-vous que les informations d'identification et les paramètres de configuration de l'emplacement de sauvegarde ont les mêmes valeurs que lors de la sauvegarde.
Après l'installation de Velero, exécutez velero backup get
jusqu'à ce que les sauvegardes soient synchronisées et que la commande répertorie la sauvegarde que vous souhaitez utiliser :
velero backup get
NAME STATUS ERRORS WARNINGS CREATED EXPIRES STORAGE LOCATION SELECTOR
my-backup Completed 0 0 2022-12-07 17:10:42 +0000 UTC 24d default <none>
Exécutez velero restore create
pour restaurer les ressources du cluster de charge de travail. VMware recommande d'utiliser la sauvegarde la plus récente :
velero restore create my-restore --from-backup my-backup --wait
Une fois la restauration terminée, l'état des clusters est createdStalled
:
tanzu cluster list
NAME NAMESPACE STATUS CONTROLPLANE WORKERS KUBERNETES ROLES PLAN TKR
tkg-vc-antrea default createdStalled 0/3 0/3 v1.27.5+vmware.1 <none> prod v1.27.5---vmware.2-tkg.1
Corrigez les objets du cluster pour définir leur propriété paused
sur false
. Cela est nécessaire, car les objets du cluster sont recréés dans un état paused
sur le nouveau cluster de gestion, afin d'empêcher leurs contrôleurs de tenter de concilier :
Pour annuler le couplage d'un cluster après sa restauration, exécutez :
kubectl -n my-namespace patch cluster CLUSTER-NAME --type merge -p '{"spec":{"paused":false}}'
Pour annuler le couplage de tous les clusters dans plusieurs espaces de noms, exécutez le script :
#!/bin/bash
for ns in $(kubectl get ns -o custom-columns=":metadata.name" | grep -v "tkg-system");
do
clusters=$(kubectl -n $ns get cluster -o name)
if [[ -n $clusters ]];then
kubectl -n $ns patch $clusters --type merge -p '{"spec":{"paused":false}}'
fi
done
Vérifiez que tous les clusters de charge de travail sont dans l'état running
, par exemple :
tanzu cluster list
NAME NAMESPACE STATUS CONTROLPLANE WORKERS KUBERNETES ROLES PLAN TKR
tkg-vc-antrea default running 3/3 3/3 v1.27.5+vmware.1 <none> prod v1.27.5---vmware.2-tkg.1
Pour chaque cluster de charge de travail, exécutez tanzu cluster get CLUSTER-NAME
pour vérifier que tous les composants sont dans l'état running
, par exemple :
tanzu cluster get tkg-vc-antrea
NAME NAMESPACE STATUS CONTROLPLANE WORKERS KUBERNETES ROLES TKR
tkg-vc-antrea default running 3/3 3/3 v1.27.5+vmware.1 <none> v1.27.5---vmware.2-tkg.1
Details:
NAME READY SEVERITY REASON SINCE MESSAGE
/tkg-vc-antrea True 4h14m
├─ClusterInfrastructure - VSphereCluster/tkg-vc-antrea-s6kl5 True 4h36m
├─ControlPlane - KubeadmControlPlane/tkg-vc-antrea-ch5hn True 4h14m
│ ├─Machine/tkg-vc-antrea-ch5hn-8gfvt True 4h14m
│ ├─Machine/tkg-vc-antrea-ch5hn-vdcrp True 4h23m
│ └─Machine/tkg-vc-antrea-ch5hn-x7nmm True 4h32m
└─Workers
├─MachineDeployment/tkg-vc-antrea-md-0-8b8zn True 4h23m
│ └─Machine/tkg-vc-antrea-md-0-8b8zn-798d5b8897-bnxn9 True 4h24m
├─MachineDeployment/tkg-vc-antrea-md-1-m6dvh True 4h24m
│ └─Machine/tkg-vc-antrea-md-1-m6dvh-79fb858b96-p9667 True 4h28m
└─MachineDeployment/tkg-vc-antrea-md-2-brm2m True 4h21m
└─Machine/tkg-vc-antrea-md-2-brm2m-6478cffc5f-tq5cn True 4h23m
Une fois que tous les clusters de charge de travail sont en cours d'exécution, vous pouvez gérer les clusters de charge de travail avec la CLI Tanzu.
Si vous avez exécuté le détecteur de dérive avant de recréer le cluster de gestion, corrigez ou examinez manuellement les objets signalés dans le rapport du détecteur de dérive, comme décrit dans la section Corriger la dérive.
Régénérez et distribuez de nouveaux fichiers kubeconfig
pour le cluster de gestion et ses clusters de charge de travail :
Régénérez le cluster de gestion kubeconfig
:
tanzu management-cluster kubeconfig get
Pour chaque cluster de charge de travail, régénérez sa kubeconfig
:
tanzu cluster kubeconfig get CLUSTER-NAME --namespace NAMESPACE
Distribuez les sorties des commandes ci-dessus à tous ceux qui utilisent les clusters, afin de remplacer leurs anciens fichiers kubeconfig
.
kubeconfig
ne contiennent pas d'identités ni d'informations d'identification et peuvent être distribués en toute sécurité, comme décrit dans la section Apprendre à utiliser Pinniped pour l'authentification fédérée sur les clusters Kubernetes dans la documentation de Pinniped.Il se produit une dérive lorsque des objets de cluster sont modifiés depuis la sauvegarde la plus récente, l'état du système après une restauration ne correspond pas à l'état le plus récent souhaité.
Pour réduire la dérive, VMware recommande de planifier des sauvegardes fréquentes et régulières.
Pour faciliter la détection et la correction des dérives, vous pouvez utiliser l'outil Détecteur de dérive décrit dans les sections ci-dessous.
Le détecteur de dérive est un outil de ligne de commande qui :
ImportantLe détecteur de dérive est dans l'état Expérimental non pris en charge. La dérive est compliquée et le détecteur de dérive peut ne pas détecter toutes les instances de dérive. Il ne doit être utilisé que comme référence et jamais comme substitut pour les sauvegardes régulières.
Pour savoir comment installer et utiliser le détecteur de dérive, reportez-vous à la section Détecteur de dérive pour le cluster de gestion Tanzu Kubernetes Grid sur le site Web de la base de connaissances VMware. Le processus global est le suivant :
Avant de restaurer TKG à partir d'une sauvegarde, exécutez la commande drift-detector
pour générer un rapport.
Téléchargez et restaurez TKG à partir de la sauvegarde la plus récente.
En ce qui concerne le rapport du détecteur de dérive, suivez les instructions de la section Correction de la dérive pour prendre des mesures correctives sur l'état restauré de TKG.
Les cas de dérive peuvent être compliqués, mais si vous disposez d'un rapport du détecteur de dérive, ou que vous détectez une dérive dans l'état de votre objet de cluster depuis la dernière sauvegarde, vous pouvez corriger certains modèles courants comme suit :
Nœuds worker obsolètes :
Infrastructure de nœud worker fantôme :
Atténuation :
kubeconfig
et définissez-le sur le contexte kubectl
.Comparez la sortie des commandes kubectl
et tanzu
suivantes :
# Get the actual worker nodes of the workload cluster
$ kubectl --context tkg-vc-antrea-admin@tkg-vc-antrea get node
NAME STATUS ROLES AGE VERSION
tkg-vc-antrea-md-0-p9vn5-645498f59f-42qh9 Ready <none> 44m v1.27.5+vmware.1
tkg-vc-antrea-md-0-p9vn5-645498f59f-shrpt Ready <none> 114m v1.27.5+vmware.1
tkg-vc-antrea-wdsfx-2hkxp Ready control-plane 116m v1.27.5+vmware.1
# Get the worker nodes managed by the TKG
$ tanzu cluster get tkg-vc-antrea
NAME NAMESPACE STATUS CONTROLPLANE WORKERS KUBERNETES ROLES TKR
tkg-vc-antrea default running 1/1 1/1 v1.27.5+vmware.1 <none> v1.27.5---vmware.2-tkg.1-zshippable
Details:
NAME READY SEVERITY REASON SINCE MESSAGE
/tkg-vc-antrea True 13m
├─ClusterInfrastructure - VSphereCluster/tkg-vc-antrea-b7fr9 True 13m
├─ControlPlane - KubeadmControlPlane/tkg-vc-antrea-wdsfx True 13m
│ └─Machine/tkg-vc-antrea-wdsfx-2hkxp True 13m
└─Workers
└─MachineDeployment/tkg-vc-antrea-md-0-p9vn5 True 13m
└─Machine/tkg-vc-antrea-md-0-p9vn5-645498f59f-shrpt True 13m
Pour chaque nœud worker répertorié par kubectl
qui ne dispose pas d'une liste Workers
> Machine
de tanzu cluster get
:
Monter en puissance les travailleurs à la valeur attendue, par exemple :
tanzu cluster scale ${cluster_name} --worker-machine-count 2
kubeconfig
pour drainer le nœud fantôme, qui déplace ses charges de travail vers des nœuds gérés par TKG :kubectl drain ${node_name} --delete-emptydir-data --ignore-daemonsets
Supprimez le nœud fantôme du cluster :
kubectl delete node ${node_name}
Connectez-vous à vSphere ou à une autre infrastructure et supprimez manuellement la machine virtuelle.
Nœuds obsolètes et infrastructure fantôme sur le plan de contrôle
Atténuation :
kubeconfig
et définissez-le sur le contexte kubectl
.Comparez la sortie des commandes kubectl
et tanzu
suivantes :
# Get the actual control plane nodes of the workload cluster
$ kubectl --context wc-admin@wc get node
NAME STATUS ROLES AGE VERSION
wc-2cjn4-4xbf8 Ready control-plane 107s v1.27.5+vmware.1
wc-2cjn4-4zljs Ready control-plane 26h v1.27.5+vmware.1
wc-2cjn4-59v95 Ready control-plane 26h v1.27.5+vmware.1
wc-2cjn4-ncgxb Ready control-plane 25h v1.27.5+vmware.1
wc-md-0-nl928-5df8b9bfbd-nww2w Ready <none> 26h v1.27.5+vmware.1
wc-md-1-j4m55-589cfcd9d6-jxmvc Ready <none> 26h v1.27.5+vmware.1
wc-md-2-sd4ww-7b7db5dcbb-crwdv Ready <none> 26h v1.27.5+vmware.1
# Get the control plane nodes managed by the TKG
$ tanzu cluster get wc
NAME NAMESPACE STATUS CONTROLPLANE WORKERS KUBERNETES ROLES TKR
wc default updating 4/3 3/3 v1.27.5+vmware.1 <none> v1.27.5---vmware.2-tkg.1-zshippable
Details:
NAME READY SEVERITY REASON SINCE MESSAGE
/wc True 24m
├─ClusterInfrastructure - VSphereCluster/wc-9nq7v True 26m
├─ControlPlane - KubeadmControlPlane/wc-2cjn4 True 24m
│ ├─Machine/wc-2cjn4-4xbf8 True 24m
│ ├─Machine/wc-2cjn4-4zljs True 26m
│ └─Machine/wc-2cjn4-59v95 True 26m
└─Workers
├─MachineDeployment/wc-md-0-nl928 True 26m
│ └─Machine/wc-md-0-nl928-5df8b9bfbd-nww2w True 26m
├─MachineDeployment/wc-md-1-j4m55 True 26m
│ └─Machine/wc-md-1-j4m55-589cfcd9d6-jxmvc True 26m
└─MachineDeployment/wc-md-2-sd4ww True 26m
└─Machine/wc-md-2-sd4ww-7b7db5dcbb-crwdv True 26m
Pour chaque nœud control-plane
répertorié par kubectl
qui ne dispose pas d'une liste ControlPlane
> Machine
provenant du cluster tanzu cluster get
:
Supprimez le nœud :
kubectl delete node ${node_name}