Controllo e registrazione di un cluster di gestione autonomo appena distribuito

Questo argomento spiega come verificare e recuperare dettagli da un cluster di gestione autonomo appena distribuito in Tanzu Kubernetes Grid e include collegamenti alle istruzioni per registrarlo in Tanzu Mission Control.

Rete del cluster di gestione

Durante la distribuzione del cluster di gestione, dall'interfaccia del programma di installazione o dalla CLI, Tanzu Kubernetes Grid crea un cluster di gestione temporaneo utilizzando un cluster Kubernetes nel Docker, kind, nella macchina di bootstrap. Tanzu Kubernetes Grid lo utilizza quindi per eseguire il provisioning del cluster di gestione finale nella piattaforma desiderata, a seconda che la distribuzione venga eseguita in vSphere, Amazon Web Services (AWS) o Microsoft Azure. Al termine della distribuzione del cluster di gestione, Tanzu Kubernetes Grid elimina il cluster kind temporaneo.

Quando Tanzu Kubernetes Grid crea un cluster di gestione per la prima volta, crea anche una cartella ~/.config/tanzu/tkg/providers che contiene tutti i file richiesti da Cluster API per creare il cluster di gestione.

L'interfaccia del programma di installazione di Tanzu Kubernetes Grid salva le impostazioni per il cluster di gestione creato in un file di configurazione del cluster ~/.config/tanzu/tkg/clusterconfigs/UNIQUE-ID.yaml, in cui UNIQUE-ID è un nome di file generato. Il programma di installazione genera inoltre una specifica di oggetto basato sulla classe di tipo Kubernetes per l'oggetto Cluster del cluster di gestione, che viene salvato in un file con lo stesso nome del cluster di gestione. Questa specifica dell'oggetto basato sulla classe viene fornita solo a scopo informativo. La distribuzione di cluster di gestione dalla specifica di un oggetto basato sulla classe non è ancora supportata. Per ulteriori informazioni sui tipi di cluster in TKG 2.x, vedere Cluster del carico di lavoro in Informazioni su Tanzu Kubernetes Grid.

Importante

Per impostazione predefinita, a meno che non si imposti la variabile di ambiente KUBECONFIG in modo da salvare il kubeconfig per un cluster in un file specifico, tutti i cluster distribuiti dalla CLI di Tanzu vengono aggiunti a un file .kube-tkg/config condiviso. Se si elimina il file .kube-tkg/config condiviso, tutti i cluster di gestione diventano orfani e quindi inutilizzabili.

Rete del cluster di gestione

Quando si distribuisce un cluster di gestione, la rete da pod a pod con Antrea viene abilitata automaticamente nel cluster di gestione.

Verifica della distribuzione del cluster di gestione

Al termine della distribuzione del cluster di gestione, è possibile ottenere informazioni sul cluster di gestione tramite:

  • Individuazione degli oggetti del cluster di gestione in vSphere, AWS o Azure
  • Utilizzo della CLI di Tanzu e kubectl

Visualizzazione degli oggetti del cluster di gestione in vSphere, AWS o Azure

Gli oggetti distribuiti dipendono dal fatto che il cluster di gestione sia stato distribuito in vSphere, AWS o Azure.

vSphere
Passare al pool di risorse designato durante la distribuzione del cluster di gestione. Dovrebbero essere visibili le seguenti macchine virtuali o istanze:
  • Una o tre macchine virtuali del piano di controllo per il piano di controllo di sviluppo o produzione rispettivamente, con nomi simili a CLUSTER-NAME-control-plane-sx5rp
  • Una o tre macchine virtuali dei nodi worker, per lo sviluppo o la produzione rispettivamente, con nomi simili a CLUSTER-NAME-md-0-6b8db6b59d-kbnk4
AWS
Passare alla visualizzazione Istanze (Instances) del dashboard Amazon EC2. Dovrebbero essere visibili le seguenti macchine virtuali o istanze:
  • Una o tre macchine virtuali del piano di controllo in Amazon EC2 per il piano di controllo di sviluppo o produzione rispettivamente, con nomi simili a CLUSTER-NAME-control-plane-bcpfp
  • Una o tre macchine virtuali dei nodi worker, per lo sviluppo o la produzione rispettivamente, con nomi simili a CLUSTER-NAME-md-0-dwfnm
  • Una macchina virtuale host Bastion EC2 con il nome CLUSTER-NAME-bastion
Azure
Passare al gruppo di risorse designato durante la distribuzione del cluster di gestione. Dovrebbero essere visibili le seguenti macchine virtuali o istanze:
  • Una o tre macchine virtuali del piano di controllo per il piano di controllo di sviluppo o produzione rispettivamente, con nomi simili a CLUSTER-NAME-control-plane-rh7xv
  • Una o tre macchine virtuali dei nodi worker, per lo sviluppo o la produzione rispettivamente, con nomi simili a CLUSTER-NAME-md-0-rh7xv
  • Risorse dell'interfaccia del disco e della rete per le macchine virtuali del piano di controllo e dei nodi worker, con nomi basati sugli stessi modelli di nomi

Se non è stato specificato un nome per il cluster di gestione, CLUSTER-NAME è simile a tkg-mgmt-vsphere-20200323121503 o tkg-mgmt-aws-20200323140554.

Visualizzazione dei dettagli del cluster di gestione con la CLI di Tanzu e kubectl

La CLI di Tanzu fornisce comandi che facilitano molte delle operazioni che è possibile eseguire con il cluster di gestione. Tuttavia, per determinate operazioni, è comunque necessario utilizzare kubectl.

Quando si distribuisce un cluster di gestione, il contesto di kubectl non viene impostato automaticamente sul contesto del cluster di gestione. Tanzu Kubernetes Grid fornisce due contesti per ogni cluster di gestione e cluster del carico di lavoro:

  • Il contesto admin di un cluster fornisce l'accesso completo a tale cluster.
    • Se nel cluster è stata implementata la gestione delle identità, utilizzando il contesto admin è possibile eseguire le operazioni di kubectl senza che sia necessaria l'autenticazione nel provider di identità.
    • Se nel cluster di gestione non è stata implementata la gestione delle identità, è necessario utilizzare il contesto admin per eseguire le operazioni di kubectl.
  • Se nel cluster è stata implementata la gestione delle identità, l'utilizzo del contesto regolare richiede l'autenticazione nel provider di identità prima di poter eseguire le operazioni di kubectl nel cluster.

Prima di poter eseguire le operazioni di kubectl in un cluster di gestione, è necessario ottenere il relativo kubeconfig.

  1. Nella macchina di bootstrap, eseguire il comando tanzu context use per visualizzare i cluster di gestione disponibili e il contesto di accesso corrente per la CLI.

    Per ulteriori informazioni, vedere Elenco dei cluster di gestione e modifica del contesto.

  2. Per visualizzare i dettagli del cluster di gestione, eseguire tanzu mc get.

    Per ulteriori informazioni, vedere Dettagli del cluster di gestione.

  3. Per recuperare un kubeconfig per il cluster di gestione, eseguire il comando tanzu mc kubeconfig get come descritto in Recupero di kubeconfig del cluster di gestione.

  4. Impostare il contesto di kubectl sul cluster di gestione.

    kubectl config use-context my-mgmnt-cluster-admin@my-mgmnt-cluster
    
  5. Utilizzare i comandi kubectl per esaminare le risorse del cluster di gestione.

    Ad esempio, eseguire kubectl get nodes, kubectl get pods o kubectl get namespaces per visualizzare i nodi, i pod e gli spazi dei nomi in esecuzione nel cluster di gestione.

Recupero di kubeconfig del cluster di gestione

Il comando tanzu mc kubeconfig get recupera le informazioni di configurazione di kubeconfig per il cluster di gestione corrente, con le opzioni seguenti:

  • --export-file FILE

    • Senza l'opzione: aggiungere le informazioni di configurazione del cluster recuperate al file kubeconfig corrente della CLI di kubectl indipendentemente dal fatto che sia il ~/.kube/config predefinito o che sia impostato dalla variabile di ambiente KUBECONFIG.
    • Con l'opzione: scrivere la configurazione del cluster in un file kubeconfig autonomo FILE che è possibile condividere con altri.
  • --admin

    • Senza l'opzione: generare un kubeconfig standard che richieda all'utente di eseguire l'autenticazione in un provider di identità esterno e conceda all'utente l'accesso alle risorse del cluster in base ai ruoli di cui dispone. Per generare un kubeconfig standard non di amministrazione, nel cluster è necessario configurare la gestione delle identità e il controllo degli accessi basato sui ruoli (RBAC).
      • Il nome del contesto di questo kubeconfig include un prefisso tanzu-cli-. Ad esempio, tanzu-cli-id-mgmt-test@id-mgmt-test.
    • Con l'opzione: Generare un kubeconfig admin contenente credenziali incorporate che consentono all'utente di accedere al cluster senza accedere a un provider di identità e concedono l'accesso completo alle risorse del cluster. Se la gestione delle identità non è configurata nel cluster, è necessario specificare l'opzione --admin.
      • Il nome del contesto di questo kubeconfig include un suffisso -admin. Ad esempio, id-mgmt-test-admin@id-mgmt-test.

Ad esempio, per generare un file kubeconfig autonomo da condividere con un utente a cui concedere l'accesso completo al cluster di gestione corrente:

tanzu mc kubeconfig get --admin --export-file MC-ADMIN-KUBECONFIG

Per recuperare un kubeconfig per un cluster del carico di lavoro, eseguire tanzu cluster kubeconfig get come descritto in Recupero di kubeconfig del cluster del carico di lavoro.

Registrazione del cluster di gestione in Tanzu Mission Control

La registrazione dei cluster di gestione di Tanzu Kubernetes Grid in Tanzu Mission Control consente di eseguire il provisioning dei cluster del carico di lavoro e di gestirli utilizzando l'interfaccia del dashboard Tanzu Mission Control. Per registrare il cluster di gestione di Tanzu Kubernetes Grid in Tanzu Mission Control:

  • È necessario essere membri dell'organizzazione di VMware Cloud Services che dispone dell'accesso a Tanzu Mission Control. Per ulteriori informazioni, vedere Introduzione a VMware Tanzu Mission Control nella documentazione di Tanzu Mission Control.
  • I cluster di gestione registrati in Tanzu Mission Control devono essere cluster di produzione con più nodi del piano di controllo. Questa configurazione consente a Tanzu Mission Control di supportare la gestione del ciclo di vita completo per i cluster del carico di lavoro gestiti dal cluster di gestione. Per ulteriori informazioni, vedere Requisiti per la registrazione di un cluster di Tanzu Kubernetes in Tanzu Mission Control nella documentazione di Tanzu Mission Control.

Piattaforme di destinazione supportate

Al momento della pubblicazione, è possibile registrare solo cluster di gestione di Tanzu Kubernetes Grid distribuiti in determinate piattaforme di destinazione. Per un elenco dei provider attualmente supportati, vedere Requisiti per la registrazione di un cluster di Tanzu Kubernetes in Tanzu Mission Control nella documentazione di Tanzu Mission Control.

AWS

Prima di distribuire il cluster di gestione in AWS, assicurarsi che lo stack CloudFormation tkg-cloud-vmware-com nell'account AWS di destinazione includa le autorizzazioni IAM indicate in Autorizzazioni necessarie per Tanzu Mission Control. Queste autorizzazioni vengono incluse automaticamente quando si crea o si aggiorna lo stack CloudFormation eseguendo il comando tanzu mc permissions aws set.

Se le autorizzazioni IAM definite nello stack CloudFormation sono state configurate manualmente, è necessario aggiungere le autorizzazioni indicate in Autorizzazioni necessarie per Tanzu Mission Control al ruolo o al criterio IAM nodes.tkg.cloud.vmware.com.

Procedura

Dopo aver distribuito il cluster di gestione tramite l'interfaccia del programma di installazione di Tanzu Kubernetes Grid o la CLI di Tanzu, seguire queste istruzioni nella documentazione di Tanzu Mission Control:

  1. Registrazione di un cluster di gestione in Tanzu Mission Control e Completamento della registrazione di un cluster di gestione.

  2. (Facoltativo) Dopo aver registrato un cluster di gestione, è possibile aggiungere in Tanzu Mission Control tutti i cluster del carico di lavoro esistenti attualmente gestiti dal cluster di gestione. Per gestire questi cluster in Tanzu Mission Control, vedere Aggiunta di un cluster del carico di lavoro alla gestione di Tanzu Mission Control.

Passaggi successivi

Ora è possibile utilizzare Tanzu Kubernetes Grid per iniziare a distribuire i cluster del carico di lavoro. Per informazioni, vedere Distribuzione dei cluster del carico di lavoro.

Se è necessario distribuire più cluster di gestione in una o in tutte le istanze di vSphere, Azure e AWS, vedere Gestione dei cluster di gestione. In questo argomento vengono inoltre fornite informazioni su come aggiungere cluster di gestione esistenti all'istanza della CLI, ottenere credenziali, scalare ed eliminare cluster di gestione, nonché accettare o rifiutare esplicitamente il programma CEIP.

check-circle-line exclamation-circle-line close-line
Scroll to top icon