Préparer le déploiement des clusters de gestion pour vSphere

Avant de pouvoir utiliser la CLI Tanzu ou l'interface du programme d'installation pour déployer un cluster de gestion, vous devez préparer votre environnement vSphere. Vous devez vous assurer que vSphere répond aux exigences générales et importer les modèles d'image de base à partir desquels Tanzu Kubernetes Grid crée des machines virtuelles de nœud de cluster. Chaque modèle d'image de base contient une version d'un système d'exploitation de machine et une version de Kubernetes.

Conditions générales

  • Machine sur laquelle la CLI Tanzu, Docker et kubectl sont installés. Reportez-vous à la section Installer la CLI Tanzu et d'autres outils à utiliser avec des clusters de gestion autonomes.
    • Il s'agit de la machine de démarrage à partir de laquelle vous exécutez tanzu, kubectl et d'autres commandes.
    • La machine de démarrage peut être une machine physique locale ou une machine virtuelle à laquelle vous accédez via une fenêtre de console ou un shell client.
  • Un compte vSphere 8, vSphere 7, vSphere 6.7u3, VMware Cloud on AWS ou Azure VMware Solution avec :
  • Votre instance de vSphere dispose des objets suivants :
    • Un hôte autonome ou un cluster vSphere avec au moins deux hôtes.
      • Si vous effectuez le déploiement sur un cluster vSphere, il est recommandé d'activer vSphere DRS.
    • Éventuellement, un pool de ressources dans lequel déployer l'instance de Tanzu Kubernetes Grid.
    • Dossier de machine virtuelle dans lequel collecter les machines virtuelles Tanzu Kubernetes Grid.
    • Une banque de données avec une capacité suffisante pour les fichiers de machine virtuelle du plan de contrôle et du nœud worker.
    • Si vous prévoyez de déployer plusieurs instances de Tanzu Kubernetes Grid sur la même instance de vSphere, créez un pool de ressources dédié, un dossier de machine virtuelle et un réseau pour chaque instance que vous déployez.
  • Vous avez effectué les actions suivantes pour préparer votre environnement vSphere :
  • Un réseau vSphere* avec :

    • La possibilité d'allouer des adresses IP aux machines virtuelles créées pour votre cluster, via DHCP ou en autorisant les machines virtuelles à sélectionner des adresses lorsqu'elles démarrent. Dans vSphere, le type de réseau est VSS par défaut, mais vous pouvez préférer VDS ou NSX dans des environnements de production.
      • Dans VDS et NSX, créez un réseau de machines virtuelles personnalisé pouvant allouer des adresses IP aux nœuds Kubernetes dans TKG.
    • Un serveur de noms DNS.
      • VSS inclut cela. Pour VDS et NSX, ou si vous utilisez Nœud IPAM, vous devez connaître et configurer les adresses du serveur de noms DNS.
    • Un serveur DHCP configuré avec l'option 3 (routeur) et l'option 6 (DNS) avec lequel connecter les machines virtuelles de nœud de cluster que Tanzu Kubernetes Grid déploie. Les machines virtuelles de nœud doivent pouvoir se connecter à vSphere.
    • Ensemble d'adresses IP virtuelles statiques disponibles pour tous les clusters que vous créez, y compris les clusters de gestion et de charge de travail.
      • Chaque cluster que vous déployez sur vSphere nécessite une adresse IP statique ou un nom de domaine complet pour son point de terminaison de plan de contrôle.
        • Vous configurez cette valeur comme VSPHERE_CONTROL_PLANE_ENDPOINT ou, si vous utilisez NSX Advanced Load Balancer pour votre point de terminaison de plan de contrôle, laissez l'adresse être définie automatiquement à partir d'un pool d'adresses.
        • Après avoir créé un cluster de gestion ou de charge de travail, vous devez configurer les adresses IP de ses nœuds de plan de contrôle pour qu'elles soient statiques, comme décrit dans la section Configurer les réservations DHCP de nœuds et l'enregistrement DNS du point de terminaison (vSphere uniquement). Pour obtenir des instructions sur la configuration des réservations DHCP, reportez-vous à la documentation de votre serveur DHCP.
    • Trafic autorisé vers vCenter Server à partir du réseau sur lequel les clusters s'exécuteront.
    • Trafic autorisé entre votre machine de démarrage locale et le port 6443 de toutes les machines virtuelles dans les clusters que vous créez. Le port 6443 est l'endroit où l'API Kubernetes est exposée par défaut. Pour modifier ce port pour un cluster de gestion ou de charge de travail, définissez la variable CLUSTER_API_SERVER_PORT ou, pour les environnements avec NSX Advanced Load Balancer, la variable VSPHERE_CONTROL_PLANE_ENDPOINT_PORT lors du déploiement du cluster.
    • Trafic autorisé entre le port 443 de toutes les machines virtuelles dans les clusters que vous créez et le système vCenter Server. Le port 443 est l'emplacement d'exposition de l'API vCenter Server.
    • Trafic autorisé entre votre machine de démarrage locale et les référentiels d'images répertoriés dans le fichier de nomenclature (BoM) du cluster de gestion, sur le port 443, pour TCP. Le fichier de nomenclature se trouve sous ~/.config/tanzu/tkg/bom/ et son nom inclut la version de Tanzu Kubernetes Grid, par exemple bom-2.2.0+vmware.1.yaml pour la version v2.2.
    • Le service NTP (Network Time Protocol) s'exécute sur tous les hôtes et les hôtes s'exécutant sur UTC. Pour vérifier les paramètres d'heure sur les hôtes :
      1. Utilisez SSH pour vous connecter à l'hôte ESXi.
      2. Exécutez la commande date pour afficher les paramètres du fuseau horaire.
      3. Si le fuseau horaire est incorrect, exécutez esxcli system time set.
    • Le serveur NTP est accessible à partir de toutes les machines virtuelles. Vous pouvez configurer cette option à l'aide de l'option DHCP 42 ou suivre les instructions de la section Configuration de NTP sans option DHCP 42.
  • NSX Advanced Load Balancer (ALB) installé dans votre instance de vSphere, si vous souhaitez utiliser NSX ALB comme équilibrage de charge et comme fournisseur de point de terminaison pour la haute disponibilité du plan de contrôle. Reportez-vous à la section Installer NSX Advanced Load Balancer.

  • Si votre environnement vSphere exécute VMware NSX, vous pouvez utiliser les interfaces NSX lorsque vous déployez des clusters de gestion. Assurez-vous que votre configuration NSX inclut un segment sur lequel DHCP est activé. Assurez-vous que NTP est configuré sur tous les hôtes ESXi, sur le système vCenter Server et sur la machine de démarrage.

*Ou reportez-vous à la section Préparer un environnement à accès restreint à Internet pour installer sans accès réseau externe.

Exemples de dimensionnement de cluster de gestion

Le tableau ci-dessous décrit des exemples de dimensionnement pour les clusters de gestion sur vSphere. Utilisez ces données comme guide pour vous assurer que votre cluster de gestion est dimensionné afin de gérer le nombre de clusters de charge de travail que vous prévoyez de déployer. La colonne Taille de machine virtuelle du cluster de charge de travail répertorie les tailles de machines virtuelles utilisées pour les exemples dans la colonne Peut gérer….

Plan de cluster de gestion Taille de la VM du cluster de gestion Peut gérer… Taille de la VM du cluster de charge de travail
3 nœuds de plan de contrôle et 3 nœuds worker

Nœuds de plan de contrôle :

  • CPU : 2
  • Mémoire : 4 Go
  • Disque : 20 Go

Nœuds Worker

  • CPU : 2
  • Mémoire : 4 Go
  • Disque : 20 Go
Exemples :
  • 5 clusters de charge de travail, chacun déployé avec 3 plans de contrôle et 200 nœuds worker ; ou
  • 10 clusters de charge de travail, chacun déployé avec 3 plans de contrôle et 50 nœuds worker

Nœuds de plan de contrôle :

  • CPU : 2
  • Mémoire : 4 Go
  • Disque : 20 Go

Nœuds Worker

  • CPU : 2
  • Mémoire : 4 Go
  • Disque : 20 Go
3 nœuds de plan de contrôle et 3 nœuds worker

Nœuds de plan de contrôle :

  • CPU : 4
  • Mémoire : 16 Go
  • Disque : 40 Go

Nœuds Worker

  • CPU : 4
  • Mémoire : 16 Go
  • Disque : 40 Go
Exemple : Un cluster de charge de travail, déployé avec 3 plans de contrôle et 500 nœuds worker

Nœuds de plan de contrôle :

  • CPU : 16
  • Mémoire : 64 Go
  • Disque : 100 Go

Nœuds Worker

  • CPU : 8
  • Mémoire : 8 Go
  • Disque : 20 Go
3 nœuds de plan de contrôle et 3 nœuds worker

Nœuds de plan de contrôle :

  • CPU : 4
  • Mémoire : 16 Go
  • Disque : 40 Go

Nœuds Worker

  • CPU : 4
  • Mémoire : 16 Go
  • Disque : 40 Go
Exemple : 200 clusters de charge de travail, chacun déployé avec 3 plans de contrôle et 5 nœuds worker

Nœuds de plan de contrôle :

  • CPU : 2
  • Mémoire : 4 Go
  • Disque : 20 Go

Nœuds Worker

  • CPU : 2
  • Mémoire : 4 Go
  • Disque : 20 Go

Reportez-vous également à la section Tailles minimales de VM pour les nœuds de cluster ci-dessous.

Le superviseur vSphere with Tanzu est un cluster de gestion

Sur vSphere 8, la fonctionnalité vSphere with Tanzu inclut un superviseur que vous pouvez utiliser en tant que cluster de gestion pour Tanzu Kubernetes Grid. Cela signifie que sur vSphere 8, vous n'avez pas besoin d'utiliser tanzu management-cluster create ou tanzu mc create pour déployer un cluster de gestion si vSphere with Tanzu et le superviseur sont activés. Le déploiement d'un cluster de gestion Tanzu Kubernetes Grid sur vSphere 8 lorsque vSphere with Tanzu n'est pas activé est pris en charge, mais l'option préférée consiste à activer vSphere with Tanzu et à utiliser le cluster superviseur intégré, si possible. Le superviseur vSphere with Tanzu est étroitement intégré à vSphere, il offre donc une expérience utilisateur plus rationalisée que l'utilisation d'un cluster de gestion autonome. Toutefois, l'utilisation d'un cluster de gestion autonome sur vSphere offre plus d'options de configuration et de personnalisation qu'un superviseur.

Important

Les versions de la CLI Tanzu compatibles avec TKG 2.x et disposant du superviseur vSphere with Tanzu dans vSphere 8 ne sont pas compatibles avec le cluster superviseur dans vSphere 7. Pour utiliser la CLI Tanzu avec un cluster superviseur vSphere with Tanzu sur vSphere 7, utilisez la version de la CLI Tanzu de TKG v1.6. Pour utiliser les versions de la CLI Tanzu compatibles avec TKG 2.x et un superviseur, effectuez une mise à niveau vers vSphere 8. Vous pouvez déployer un cluster de gestion TKG 2.x autonome sur vSphere 7 si aucun cluster superviseur vSphere with Tanzu n'est présent. Pour plus d'informations sur la compatibilité entre la CLI Tanzu et les produits VMware, reportez-vous à la documentation de la CLI Tanzu.

La CLI Tanzu fonctionne avec les clusters de gestion fournis par vSphere with Tanzu et les clusters de gestion autonomes déployés par Tanzu Kubernetes Grid sur Azure, Amazon Web Services (AWS) et vSphere lorsque vSphere with Tanzu n'est pas activé, ce qui vous permet de déployer et de gérer des clusters de charge de travail sur plusieurs infrastructures à l'aide d'un outil unique. Pour plus d'informations sur l'utilisation de la CLI Tanzu avec un superviseur, reportez-vous à la section Connecter la CLI Tanzu au superviseur dans Création et gestion de clusters de charge de travail TKG 2.2 avec la CLI Tanzu.

Pour plus d'informations sur la fonctionnalité vSphere with Tanzu dans vSphere 8, reportez-vous à la documentation de vSphere with Tanzu 8.0.

Remarque

Sur Azure VMware Solution, vous ne pouvez pas créer de cluster superviseur et vous devez déployer un cluster de gestion pour exécuter des commandes tanzu.

Kube-Vip et NSX Advanced Load Balancer pour vSphere

Chaque cluster de gestion et cluster de charge de travail que vous déployez sur vSphere nécessite une adresse IP virtuelle statique pour les demandes externes au serveur API du cluster. Comme vous devez pouvoir attribuer cette adresse IP, elle ne peut donc pas être comprise dans votre plage DHCP, mais elle doit se trouver dans le même sous-réseau que la plage DHCP.

L'espace Kube-Vip du plan de contrôle du cluster utilise cette adresse IP virtuelle statique pour répondre aux demandes d'API, et le certificat du serveur d'API inclut l'adresse pour activer la communication TLS sécurisée. Dans les clusters de charge de travail, Kube-Vip s'exécute en mode de basculement de base de couche 2, en attribuant l'adresse IP virtuelle à un nœud de plan de contrôle à la fois. Dans ce mode, Kube-Vip ne fonctionne pas comme un véritable équilibrage de charge pour le trafic du plan de contrôle.

Tanzu Kubernetes Grid peut utiliser Kube-Vip comme équilibrage de charge pour les charges de travail dans les clusters de charge de travail (version d'évaluation technique). Vous ne pouvez pas utiliser Kube-VIP comme service LoadBalancer sur des clusters basés sur Windows. Pour plus d'informations, reportez-vous à la section Équilibrage de charge de Kube-VIP.

Pour équilibrer les charges de travail sur vSphere, utilisez NSX Advanced Load Balancer, également appelé Avi Load Balancer, Essentials Edition.

Important

Sur vSphere 8 pour utiliser NSX Advanced Load Balancer avec un cluster de gestion autonome TKG et ses clusters de charge de travail, vous avez besoin de NSX ALB v22.1.2 ou version ultérieure et de TKG v2.2 ou version ultérieure.

Importer un modèle d’image de base dans vSphere

Avant de pouvoir déployer un cluster sur vSphere, vous devez importer dans vSphere un modèle d'image de base contenant les versions du système d'exploitation et de Kubernetes sur lesquelles les nœuds de cluster s'exécutent. Pour chaque paire de versions du système d'exploitation et de Kubernetes prises en charge, VMware publie un modèle d'image de base au format OVA, pour déployer des clusters sur vSphere. Après avoir importé le fichier OVA dans vSphere, vous devez convertir la machine virtuelle résultante en modèle de machine virtuelle.

Les images de base prises en charge pour les nœuds de cluster dépendent du type de cluster, comme suit :

  • Cluster de gestion : Le fichier OVA doit disposer de Kubernetes v1.25.7, la version par défaut de Tanzu Kubernetes Grid v2.2. Il doit donc s'agir de l'un des produits suivants :

    • Fichier OVA Ubuntu v20.04 Kubernetes v1.25.7

      Remarque

      Dans Tanzu Kubernetes Grid v2.2, l'image OVA Ubuntu utilise le mode de démarrage UEFI (Unified Extensible Firmware Interface).

    • Fichier OVA Photon v3 Kubernetes v1.25.7

    • OVA personnalisé avec une version personnalisée de Tanzu Kubernetes (TKR), comme décrit dans Créer des images de machine.

  • Clusters de charge de travail : Le fichier OVA peut disposer de n'importe quelle combinaison prise en charge du système d'exploitation et de la version de Kubernetes, telle que fournie dans une version Tanzu Kubernetes. Pour plus d'informations, reportez-vous à la section Plusieurs versions de Kubernetes.

Pour importer un modèle d’image de base dans vSphere :

  1. Accédez à la page de téléchargements de Tanzu Kubernetes Grid, connectez-vous avec vos informations d'identification VMware Customer Connect, puis cliquez sur Accéder aux téléchargements (Go to Downloads).
  2. Téléchargez un fichier OVA Tanzu Kubernetes Grid pour les nœuds de cluster. Pour le cluster de gestion, il doit s'agir de l'un des téléchargements du fichier OVA Kubernetes v1.25.7.

    Important

    assurez-vous de télécharger les modèles d'image de base OVA les plus récents en cas de versions de correctifs de sécurité.

    Vous trouverez des modèles d'image de base mis à jour qui incluent des correctifs de sécurité sur la page de téléchargement du produit Tanzu Kubernetes Grid.

  3. Dans vSphere Client, cliquez avec le bouton droit sur un objet dans l'inventaire vCenter Server et sélectionnez Déployer le modèle OVF (Deploy OVF template).

  4. Sélectionnez Fichier local (Local file), cliquez sur le bouton de chargement des fichiers et accédez au fichier OVA téléchargé sur votre machine locale.
  5. Suivez les invites du programme d'installation pour déployer une machine virtuelle à partir du fichier OVA.

    • Accepter ou modifier le nom du dispositif
    • Sélectionner le centre de données ou le dossier de destination
    • Sélectionner l’hôte, le cluster ou le pool de ressources de destination
    • Acceptez les contrats de licence d'utilisateur final (CLUF).
    • Sélectionnez le format de disque et la banque de données de destination.
    • Sélectionnez le réseau auquel la VM doit se connecter.
    Remarque

    si vous sélectionnez le provisionnement statique comme format de disque, lorsque Tanzu Kubernetes Grid crée des machines virtuelles de nœud de cluster à partir du modèle, la taille complète du disque de chaque nœud sera réservée. Cela peut rapidement consommer du stockage si vous déployez de nombreux clusters ou des clusters avec de nombreux nœuds. Cependant, si vous sélectionnez le provisionnement dynamique, lorsque vous déployez des clusters, cela peut donner une fausse impression de la quantité de stockage disponible. Si vous sélectionnez le provisionnement dynamique, le stockage disponible au moment du déploiement des clusters peut être suffisant, mais il peut s'épuiser lorsque les clusters s'exécutent et accumulent des données.

  6. Cliquez sur Terminer (Finish) pour déployer la VM.
  7. Lorsque le déploiement OVA se termine, cliquez avec le bouton droit sur la machine virtuelle et sélectionnez Modèles (Template) > Convertir vers le modèle (Convert to Template).

    Important

    ne mettez pas sous tension la machine virtuelle avant de la convertir en modèle.

  8. Dans la vue VMs et modèles(VMs and Templates), cliquez avec le bouton droit sur le nouveau modèle, sélectionnez Ajouter une autorisation (Add Permission) et attribuez la variable tkg-user au modèle avec le rôle TKG.

    Pour plus d'informations sur la création de l'utilisateur et du rôle pour Tanzu Kubernetes Grid, reportez-vous à la section Autorisations requises pour le compte vSphere ci-dessous.

Répétez la procédure pour chacune des versions de Kubernetes pour lesquelles vous avez téléchargé le fichier OVA.

Autorisations requises pour le compte vSphere

Le compte vCenter Single Sign On que vous fournissez à Tanzu Kubernetes Grid lorsque vous déployez un cluster de gestion doit disposer des autorisations appropriées pour effectuer les opérations requises dans vSphere.

Il n'est pas recommandé de fournir un compte d'administrateur vSphere pour Tanzu Kubernetes Grid, car Tanzu Kubernetes Grid dispose alors d'autorisations beaucoup plus importantes qu'il n'en a besoin. La meilleure façon d'attribuer des autorisations à Tanzu Kubernetes Grid consiste à créer un rôle et un compte d'utilisateur, puis à accorder à ce compte d'utilisateur ce rôle sur des objets vSphere.

Remarque

Si vous déployez des clusters de charge de travail sur vSphere 7 ou 8 et que vSphere with Tanzu est activé, vous devez définir l'autorisation Globale (Global) > Administrateur de cloud (Cloud Admin) en plus des autorisations répertoriées ci-dessous. Si vous prévoyez d'utiliser Velero pour sauvegarder et restaurer des clusters de charge de travail, vous devez également définir les autorisations répertoriées dans la section Informations d'identification et privilèges pour l'accès à VMDK du Guide de programmation du kit de développement de disque virtuel.

  1. Dans vSphere Client, accédez à Administration > Contrôle d'accès (Access Control) > Rôles (Roles) et créez un rôle, par exemple TKG, avec les autorisations suivantes.

    Objet vSphere Autorisation requise
    Cns Autorisant la recherche
    Banque de données Allouer de l'espace
    Parcourir la banque de données
    Opérations de fichier de niveau bas
    Global (en cas d'utilisation de Velero pour la sauvegarde et la restauration) Désactiver les méthodes
    Activer les méthodes
    Licences
    Réseau Assigner réseau
    Stockage basé sur le profil Vue du stockage basée sur le profil
    Ressource Attribuer une machine virtuelle au pool de ressources
    Sessions Message
    Valider la session
    Machine virtuelle Modifier la configuration > Ajouter un disque existant
    Modifier la configuration > Ajouter un nouveau disque
    Modifier la configuration > Ajouter ou supprimer un périphérique
    Modifier la configuration > Configuration avancée
    Modifier la configuration > Modifier le nombre de CPU
    Modifier la configuration > Modifier la mémoire
    Modifier la configuration > Modifier les paramètres
    Modifier la configuration > Configurer un périphérique brut
    Modifier la configuration > Étendre le disque virtuel
    Modifier la configuration > Modifier les paramètres du périphérique
    Modifier la configuration > Supprimer le disque
    Modifier la configuration Configuration > Basculer le suivi des changements de disques*
    Modifier l'inventaire > Créer à partir de l'existant
    Modifier l'inventaire > Supprimer
    Interaction > Mettre sous tension
    Interaction > Mettre hors tension
    Provisionnement > Autoriser la lecture accès au disque uniquement*
    Provisionnement > Autoriser le téléchargement de machines virtuelles*
    Provisionnement > Déployer le modèle
    Gestion des snapshots > Créer un snapshot*
    Gestion des snapshots > Supprimer un snapshot*

    *Requis pour activer le plug-in Velero, comme décrit dans la section Gestion de la sauvegarde et de la restauration et Infrastructure du cluster de charge de travail. Vous pouvez ajouter ces autorisations ultérieurement si nécessaire.
    vApp Importer

  2. Dans Administration > Single Sign-On > Utilisateurs et groupes (Users and Groups), créez un compte d'utilisateur dans le domaine approprié, par exemple tkg-user.

  3. Dans les vues Hôtes et clusters (Hosts and Clusters), VM et modèles (VMs and Templates), Stockage (Storage) et Mise en réseau (Networking), cliquez avec le bouton droit sur les objets que votre déploiement de Tanzu Kubernetes Grid utilisera, sélectionnez Ajouter une autorisation (Add Permission) et attribuez la variable tkg-user avec le rôle TKG à chaque objet.

    • Hôtes et clusters
      • L'objet vCenter Server racine
      • Le centre de données et tous les dossiers Hôte et Cluster, de l'objet Centre de données jusqu'au cluster qui gère le déploiement de Tanzu Kubernetes Grid
      • Hôtes et clusters cibles
      • Pools de ressources cibles avec l'option Propager aux enfants (Propagate to children) activée
    • VM et modèles
      • Modèles d'image de base Tanzu Kubernetes Grid déployés
      • Dossiers de machine virtuelle et de modèle cibles, avec l'option Propager aux enfants (Propagate to children) activée
    • Stockage
      • Banques de données et tous les dossiers de stockage, de l'objet Centre de données jusqu'aux banques de données qui seront utilisées pour les déploiements de Tanzu Kubernetes Grid
    • Mise en réseau
      • Réseaux ou groupes de ports distribués auxquels des clusters seront attribués
      • Distributed switches

Tailles minimales de VM pour les nœuds de cluster

Configurez les tailles de vos nœuds de cluster de gestion et de charge de travail en fonction de la complexité du cluster et de la demande attendue. Vous pouvez les définir sur small, medium, large, ou extra-large comme décrit dans la section Tailles de nœud prédéfinies.

Pour tous les clusters sur vSphere, vous les configurez avec les variables de configuration de cluster SIZE, CONTROLPLANE_SIZE et WORKER_SIZE. Pour une meilleure granularité, vous pouvez également utiliser les variables de configuration VSPHERE_* _DISK_GIB, _NUM_CPUS et _MEM_MIB.

Pour les clusters de gestion, le champ Type d'instance (Instance Type) de l'interface du programme d'installation configure également les tailles de VM de nœud.

Pour les clusters de gestion et de charge de travail avec un nœud worker unique exécutant des exemples d'applications, utilisez les tailles de machine virtuelle minimales suivantes :

  • Aucun service installé : small
  • Services de base installés (Wavefront, Fluent Bit, Contour, Envoy et l'agent TMC) : medium

Créer une paire de clés SSH

Pour que la CLI Tanzu se connecte à vSphere à partir de la machine sur laquelle vous l'exécutez, vous devez fournir la partie de clé publique d'une paire de clés SSH à Tanzu Kubernetes Grid lorsque vous déployez le cluster de gestion. Si vous n'en avez pas déjà sur la machine sur laquelle vous exécutez la CLI, vous pouvez utiliser un outil tel que ssh-keygen pour générer une paire de clés.

  1. Sur la machine sur laquelle vous allez exécuter la CLI Tanzu, exécutez la commande suivante ssh-keygen.

    ssh-keygen -t rsa -b 4096 -C "[email protected]"
    
  2. À l'invite Enter file in which to save the key (/root/.ssh/id_rsa):, appuyez sur Entrée pour accepter les valeurs par défaut.

  3. Entrez et répétez un mot de passe pour la paire de clés.
  4. Ajoutez la clé privée à l'agent SSH exécuté sur votre machine et entrez le mot de passe que vous avez créé à l'étape précédente.

    ssh-add ~/.ssh/id_rsa
    
  5. Ouvrez le fichier .ssh/id_rsa.pub dans un éditeur de texte afin de pouvoir le copier et le coller facilement lorsque vous déployez un cluster de gestion.

Obtenir les empreintes numériques du certificat vSphere

Si votre environnement vSphere utilise des certificats auto-signés non approuvés pour authentifier les connexions, vous devez vérifier l'empreinte numérique du système vCenter Server lorsque vous déployez un cluster de gestion. Si votre environnement vSphere utilise des certificats approuvés signés par une autorité de certification connue, vous n'avez pas besoin de vérifier l'empreinte numérique.

Vous pouvez utiliser la visionneuse de certificats de votre navigateur Web pour obtenir l'empreinte numérique du certificat vSphere.

  1. Connectez-vous à vSphere Client dans un navigateur Web.
  2. Accédez à la visionneuse de certificats en cliquant sur l'icône Sécurisé (Secure) (cadenas) à gauche de l'adresse Web dans le champ URL.

    Les étapes suivantes dépendent du navigateur que vous utilisez. Par exemple, dans Google Chrome, sélectionnez La connexion est sécurisée (Connection is secure) > Le certificat est valide (Certificate is valid) pour afficher les détails du certificat, en incluant l'empreinte numérique.

  3. Enregistrez la valeur Empreinte digitale SHA-1 (SHA-1 Fingerprint) dans le navigateur. S'il contient des espaces entre chaque paire hexadécimale, remplacez un caractère « : » pour chaque espace, par exemple 6D:4A:DC:6C:C4:43:73:BB:DF:9A:32:68:67:56:F9:96:02:08:64:F4.

    Vous pouvez utiliser cette chaîne d'empreinte numérique pour la vérifier lorsque vous déployez un cluster de gestion à partir de l'interface du programme d'installation ou la fournir à l'option VSPHERE_TLS_THUMBPRINT lorsque vous déployez des clusters à partir d'un fichier de configuration.

Paramètres et règles pour IPv6

Pour déployer un cluster de gestion qui prend en charge IPv6 dans un environnement de mise en réseau IPv6 :

  1. Configurez Linux pour accepter les annonces du routeur afin de vous assurer que la route IPv6 par défaut n'est pas supprimée de la table de routage lors du démarrage du service Docker. Pour plus d'informations, reportez-vous à la page Docker CE deletes IPv6 Default route. sudo sysctl net.ipv6.conf.eth0.accept_ra=2

  2. Créez une règle de masquage pour le cluster de démarrage afin d'envoyer le trafic sortant à partir du cluster de démarrage : sudo ip6tables -t nat -A POSTROUTING -s fc00:f853:ccd:e793::/64 ! -o docker0 -j MASQUERADE Pour plus d'informations sur les règles de masquage, reportez-vous à la page MASQUERADE.

  3. Déployez le cluster de gestion en exécutant tanzu mc create, comme décrit dans la section Déployer des clusters de gestion à partir d'un fichier de configuration.

    • Lorsque vous créez le fichier de configuration pour le cluster de gestion, définissez TKG_IP_FAMILY et d'autres variables comme décrit dans la section Configure pour IPv6.
    • Pour la prise en charge d'IPv6, vous devez déployer le cluster de gestion à partir d'un fichier de configuration, et non à l'aide de l'interface du programme d'installation.

Tâches suivantes

Pour les déploiements de production, il est vivement recommandé d'activer la gestion des identités pour vos clusters :

Si vous utilisez Tanzu Kubernetes Grid dans un environnement disposant d'une connexion Internet externe, une fois que vous avez configuré la gestion des identités, vous êtes prêt à déployer des clusters de gestion sur vSphere.

check-circle-line exclamation-circle-line close-line
Scroll to top icon