This site will be decommissioned on December 31st 2024. After that date content will be available at techdocs.broadcom.com.

Examiner et enregistrer un cluster de gestion autonome récemment déployé

Cette rubrique explique comment vérifier et récupérer les détails d'un cluster de gestion autonome récemment déployé dans Tanzu Kubernetes Grid et fournit des liens permettant de l'enregistrer dans Tanzu Mission Control.

Mise en réseau du cluster de gestion

Lors du déploiement du cluster de gestion, à partir de l'interface du programme d'installation ou de la CLI, Tanzu Kubernetes Grid crée un cluster de gestion temporaire à l'aide d'un cluster Kubernetes in Docker kind, sur la machine de démarrage. Ensuite, Tanzu Kubernetes Grid l'utilise pour provisionner le cluster de gestion final sur la plate-forme de votre choix, selon que vous le déployez sur vSphere, Amazon Web Services (AWS) ou Microsoft Azure. Une fois le déploiement du cluster de gestion terminé, Tanzu Kubernetes Grid supprime le cluster temporaire kind.

Lorsque Tanzu Kubernetes Grid crée un cluster de gestion pour la première fois, il crée également un dossier ~/.config/tanzu/tkg/providers qui contient tous les fichiers requis par l'API de cluster pour créer le cluster de gestion.

L'interface du programme d'installation de Tanzu Kubernetes Grid enregistre les paramètres du cluster de gestion qu'il crée dans un fichier de configuration de cluster ~/.config/tanzu/tkg/clusterconfigs/UNIQUE-ID.yaml, où UNIQUE-ID est un nom de fichier généré. Le programme d'installation génère également une spécification d'objet basée sur une classe de style Kubernetes pour l'objet Cluster du cluster de gestion, qui est enregistrée dans un fichier portant le même nom que le cluster de gestion. Cette spécification d'objet basée sur une classe est fournie à des fins d'informations uniquement. Le déploiement de clusters de gestion à partir d'une spécification d'objet basée sur une classe n'est pas encore pris en charge. Pour plus d'informations sur les types de clusters dans TKG 2.x, reportez-vous à la section Clusters de travail dans À propos de Tanzu Kubernetes Grid.

Important

Par défaut, sauf si vous définissez la variable d'environnement KUBECONFIG pour enregistrer kubeconfig pour un cluster dans un fichier spécifique, tous les clusters que vous déployez à partir de la CLI Tanzu sont ajoutés à un fichier .kube-tkg/config partagé. Si vous supprimez le fichier .kube-tkg/config partagé, tous les clusters de gestion deviennent inactifs et, par conséquent, inutilisables.

Mise en réseau du cluster de gestion

Lorsque vous déployez un cluster de gestion, la mise en réseau d'espace à espace avec Antrea est automatiquement activée dans le cluster de gestion.

Vérifier le déploiement du cluster de gestion

Une fois le déploiement du cluster de gestion terminé, vous pouvez obtenir des informations sur votre cluster de gestion en procédant comme suit :

  • Localisation des objets du cluster de gestion dans vSphere, AWS ou Azure
  • Utilisation de la CLI Tanzu et de kubectl

Afficher les objets du cluster de gestion dans vSphere, AWS ou Azure

Les objets déployés varient selon que vous avez déployé le cluster de gestion dans vSphere, AWS ou Azure.

vSphere
Accédez au pool de ressources que vous avez désigné lors du déploiement du cluster de gestion. Les machines virtuelles ou instances suivantes doivent s'afficher :
  • Une ou trois machines virtuelles de plan de contrôle, respectivement pour le plan de contrôle de développement ou de production, avec des noms semblables à CLUSTER-NAME-control-plane-sx5rp
  • Une ou trois machines virtuelles de nœud worker, respectivement pour le développement ou la production, avec des noms semblables à CLUSTER-NAME-md-0-6b8db6b59d-kbnk4
AWS
Accédez à la vue Instances de votre tableau de bord Amazon EC2. Les machines virtuelles ou instances suivantes doivent s'afficher :
  • Une ou trois machines virtuelles de plan de contrôle sur Amazon EC2, respectivement pour le plan de contrôle de développement ou de production, avec des noms semblables à CLUSTER-NAME-control-plane-bcpfp
  • Une ou trois machines virtuelles de nœud worker, respectivement pour le développement ou la production, avec des noms semblables à CLUSTER-NAME-md-0-dwfnm
  • Machine virtuelle d'hôte de bastion EC2 portant le nom CLUSTER-NAME-bastion
Azure
Accédez au groupe de ressources que vous avez désigné lors du déploiement du cluster de gestion. Les machines virtuelles ou instances suivantes doivent s'afficher :
  • Une ou trois machines virtuelles de plan de contrôle, respectivement pour le plan de contrôle de développement ou de production, avec des noms semblables à CLUSTER-NAME-control-plane-rh7xv
  • Une ou trois machines virtuelles de nœud worker, respectivement pour le développement ou la production, avec des noms semblables à CLUSTER-NAME-md-0-rh7xv
  • Ressources de disque et d'interface réseau pour les machines virtuelles du plan de contrôle et du nœud worker, avec des noms basés sur les mêmes modèles de noms

Si vous n'avez pas spécifié de nom pour le cluster de gestion, CLUSTER-NAME est semblable à tkg-mgmt-vsphere-20200323121503 ou tkg-mgmt-aws-20200323140554.

Afficher les détails du cluster de gestion avec la CLI Tanzu et kubectl

La CLI Tanzu fournit des commandes qui facilitent la plupart des opérations que vous pouvez effectuer avec votre cluster de gestion. Cependant, pour certaines opérations, vous devez toujours utiliser kubectl.

Lorsque vous déployez un cluster de gestion, le contexte kubectl n'est pas automatiquement défini sur le contexte du cluster de gestion. Tanzu Kubernetes Grid fournit deux contextes pour chaque cluster de gestion et cluster de charge de travail :

  • Le contexte admin d'un cluster vous donne un accès complet à ce cluster.
    • Si vous avez implémenté la gestion des identités sur le cluster, l'utilisation du contexte admin vous permet d'exécuter des opérations kubectl sans nécessiter d'authentification auprès de votre fournisseur d'identité (IDP).
    • Si vous n'avez pas mis en œuvre la gestion des identités sur le cluster de gestion, vous devez utiliser le contexte admin pour exécuter les opérations kubectl.
  • Si vous avez implémenté la gestion des identités sur le cluster, l'utilisation du contexte normal vous oblige à vous authentifier auprès de votre fournisseur d'identité avant de pouvoir exécuter des opérations kubectl sur le cluster.

Avant de pouvoir exécuter des opérations kubectl sur un cluster de gestion, vous devez obtenir son kubeconfig.

  1. Sur la machine de démarrage, exécutez la commande tanzu context use pour voir les clusters de gestion disponibles et lequel est le contexte de connexion actuel pour la CLI.

    Pour plus d'informations, reportez-vous à la section Répertorier les clusters de gestion et modifier le contexte.

  2. Pour afficher les détails du cluster de gestion, exécutez tanzu mc get.

    Pour plus d'informations, reportez-vous à la section Afficher les détails du cluster de gestion.

  3. Pour récupérer un fichier kubeconfig pour le cluster de gestion, exécutez la commande tanzu mc kubeconfig get comme décrit dans Récupérer le cluster de gestion kubeconfig.

  4. Définissez le contexte de kubectl sur le cluster de gestion.

    kubectl config use-context my-mgmnt-cluster-admin@my-mgmnt-cluster
    
  5. Utilisez les commandes kubectl pour examiner les ressources du cluster de gestion.

    Par exemple, exécutez kubectl get nodes, kubectl get pods ou kubectl get namespaces pour voir les nœuds, les espaces et les espaces de noms en cours d'exécution dans le cluster de gestion.

Récupérer le cluster de gestion kubeconfig

La commande tanzu mc kubeconfig get récupère les informations de configuration de kubeconfig pour le cluster de gestion actuel, avec les options suivantes :

  • --export-file FILE

    • Sans l'option : ajoutez les informations de configuration de cluster récupérées au fichier kubeconfig actuel de la CLI kubectl, qu'il s'agisse de la valeur par défaut ~/.kube/config ou de celle définie par la variable d'environnement KUBECONFIG.
    • Avec l'option : écrivez la configuration du cluster dans un fichier kubeconfig autonome FILE que vous pouvez partager avec d'autres utilisateurs.
  • --admin

    • Sans l'option : générez un fichier kubeconfig standard qui requiert que l'utilisateur s'authentifie auprès d'un fournisseur d'identité externe et accorde l'accès aux ressources du cluster en fonction des rôles qui lui sont attribués. Pour générer un fichier kubeconfig non administrateur standard, la gestion des identités et le contrôle d'accès basé sur les rôles (RBAC) doit être configurée sur le cluster.
      • Le nom de contexte de ce fichier kubeconfig inclut un préfixe tanzu-cli-. Par exemple, tanzu-cli-id-mgmt-test@id-mgmt-test.
    • Avec l'option : Générez un fichier kubeconfig administrateur contenant des informations d'identification intégrées qui permettent à l'utilisateur d'accéder au cluster sans se connecter à un fournisseur d'identité et accorde un accès complet aux ressources du cluster. Si la gestion des identités n'est pas configurée sur le cluster, vous devez spécifier l'option --admin.
      • Le nom de contexte de ce fichier kubeconfig inclut un suffixe -admin. Par exemple, id-mgmt-test-admin@id-mgmt-test.

Par exemple, pour générer un fichier kubeconfig à partager avec quelqu'un pour lui accorder un accès complet à votre cluster de gestion actuel :

tanzu mc kubeconfig get --admin --export-file MC-ADMIN-KUBECONFIG

Pour récupérer un fichier kubeconfig pour un cluster de charge de travail, exécutez tanzu cluster kubeconfig get comme décrit dans la section Récupérer le fichierkubeconfig du cluster de gestion.

Enregistrer votre cluster de gestion dans Tanzu Mission Control

L'enregistrement de clusters de gestion Tanzu Kubernetes Grid dans Tanzu Mission Control vous permet de provisionner et de gérer des clusters de charge de travail à l'aide de l'interface du tableau de bord Tanzu Mission Control. Pour enregistrer votre cluster de gestion Tanzu Kubernetes Grid dans Tanzu Mission Control :

  • Vous devez être membre de l'organisation VMware Cloud Services avec un accès à Tanzu Mission Control. Pour plus d'informations, reportez-vous à la section Démarrage de VMware Tanzu Mission Control dans la documentation de Tanzu Mission Control.
  • Les clusters de gestion que vous enregistrez dans Tanzu Mission Control doivent être des clusters de production avec plusieurs nœuds de plan de contrôle. Cette configuration permet à Tanzu Mission Control de prendre en charge la gestion complète du cycle de vie des clusters de charge de travail qui sont gérés par le cluster de gestion. Pour plus d'informations, reportez-vous à la section Configuration requise pour l'enregistrement d'un cluster Tanzu Kubernetes auprès de Tanzu Mission Control dans la documentation de Tanzu Mission Control.

Plates-formes cibles prises en charge

Au moment de la publication, vous pouvez uniquement enregistrer des clusters de gestion Tanzu Kubernetes Grid qui sont déployés sur certaines plates-formes cibles. Pour obtenir la liste des fournisseurs actuellement pris en charge, reportez-vous à la section Configuration requise pour l'enregistrement d'un cluster Tanzu Kubernetes auprès de Tanzu Mission Control dans la documentation de Tanzu Mission Control.

AWS

Avant de déployer votre cluster de gestion sur AWS, assurez-vous que la pile CloudFormation tkg-cloud-vmware-com du compte AWS cible inclut les autorisations IAM répertoriées dans Autorisations requises par Tanzu Mission Control. Ces autorisations sont incluses automatiquement lorsque vous créez ou mettez à jour la pile CloudFormation en exécutant la commande tanzu mc permissions aws set.

Si vous avez configuré manuellement les autorisations IAM définies dans la pile CloudFormation, vous devez ajouter les autorisations répertoriées dans Autorisations requises par Tanzu Mission Control à la stratégie ou au rôle IAM nodes.tkg.cloud.vmware.com.

Procédure

Après avoir déployé votre cluster de gestion via l'interface du programme d'installation de Tanzu Kubernetes Grid ou la CLI Tanzu, suivez ces instructions dans la documentation de Tanzu Mission Control :

  1. Enregistrez un cluster de gestion dans Tanzu Mission Control, puis Terminez l'enregistrement d'un cluster de gestion.

  2. (Facultatif) Une fois que vous avez correctement enregistré un cluster de gestion, vous pouvez ajouter tous les clusters de charge de travail existants qui sont actuellement gérés par le cluster de gestion à Tanzu Mission Control. Pour gérer ces clusters dans Tanzu Mission Control, reportez-vous à la section Ajouter un cluster de charge de travail dans la gestion de Tanzu Mission Control.

Tâches suivantes

Vous pouvez désormais utiliser Tanzu Kubernetes Grid pour commencer à déployer des clusters de charge de travail. Pour plus d'informations, reportez-vous à la section Déployer des clusters de charge de travail.

Si vous avez besoin de déployer plusieurs clusters de gestion sur une ou sur l'ensemble des instances de vSphere, d'Azure et d'AWS, reportez-vous à la section Gestion de vos clusters de gestion. Cette rubrique fournit également des informations sur l'ajout de clusters de gestion existants à votre instance de CLI, l'obtention d'informations d'identification, la mise à l'échelle et la suppression de clusters de gestion, et la manière de vous inscrire au CEIP ou de vous en désinscrire.

check-circle-line exclamation-circle-line close-line
Scroll to top icon