Preparazione della distribuzione dei cluster di gestione in vSphere

Prima di poter utilizzare la CLI di Tanzu o l'interfaccia del programma di installazione per distribuire un cluster di gestione, è necessario preparare l'ambiente vSphere. È necessario assicurarsi che vSphere soddisfi i requisiti generali e importare i modelli di immagine di base da cui Tanzu Kubernetes Grid crea le macchine virtuali dei nodi del cluster. Ogni modello di immagine di base contiene una versione del sistema operativo di una macchina e una versione di Kubernetes.

Requisiti generali

  • Una macchina con la CLI di Tanzu, Docker e kubectl installati. Vedere Installazione della CLI di Tanzu e della CLI di Kubernetes per l'utilizzo con i cluster di gestione autonomi.
    • Questa è la macchina di bootstrap da cui vengono eseguiti tanzu, kubectl e altri comandi.
    • La macchina di bootstrap può essere una macchina fisica locale o una macchina virtuale a cui è possibile accedere tramite una finestra della console o una shell del client.
  • Un account vSphere 8, vSphere 7, VMware Cloud on AWS o Azure VMware Solution con:
  • L'istanza di vSphere deve includere gli oggetti seguenti:
    • Un host autonomo o un cluster vSphere con almeno due host
      • Se si esegue la distribuzione in un cluster vSphere, vSphere DRS dovrebbe essere abilitato.
    • Facoltativamente, un pool di risorse in cui distribuire l'istanza di Tanzu Kubernetes Grid
    • Una cartella in cui raccogliere le macchine virtuali di Tanzu Kubernetes Grid
    • Un datastore con capacità sufficiente per i file delle macchine virtuali del piano di controllo e del nodo worker
    • Per distribuire più istanze di Tanzu Kubernetes Grid nella stessa istanza di vSphere, creare un pool di risorse, una cartella di macchine virtuali e una rete dedicati per ogni istanza distribuita.
    • Per eseguire il cluster di gestione o i relativi cluster del carico di lavoro in più zone di disponibilità, creare, ora o successivamente, un file vsphere-zones.yaml che definisca gli oggetti FailureDomain e DeploymentZone delle zone.
  • Sono state eseguite le operazioni seguenti per preparare l'ambiente vSphere:
  • Una rete di vSphere* con:

    • La possibilità di allocare indirizzi IP alle macchine virtuali create per il cluster tramite DHCP o consentendo alle macchine virtuali di selezionare gli indirizzi all'avvio. In vSphere, il tipo di rete è VSS per impostazione predefinita, ma potrebbe essere preferibile utilizzare VDS o NSX negli ambienti di produzione.
      • In VDS e NSX, creare una rete di macchine virtuali personalizzata in grado di allocare indirizzi IP ai nodi Kubernetes in TKG.
    • Un server dei nomi DNS.
      • In VSS è incluso. Per VDS e NSX o se si utilizza IPAM del nodo, è necessario conoscere e configurare gli indirizzi del server dei nomi DNS.
    • Un server DHCP configurato con l'opzione 3 (router) e l'opzione 6 (DNS) a cui connettere le macchine virtuali dei nodi del cluster che Tanzu Kubernetes Grid distribuisce. Le macchine virtuali dei nodi devono essere in grado di connettersi a vSphere.
    • Un set di indirizzi IP virtuali statici disponibili per tutti i cluster creati, inclusi i cluster di gestione e i cluster del carico di lavoro.
      • Ogni cluster distribuito in vSphere richiede un indirizzo IP statico o un nome di dominio completo per l'endpoint del piano di controllo.
        • Configurare questo valore come VSPHERE_CONTROL_PLANE_ENDPOINT oppure, se si utilizza NSX Advanced Load Balancer per l'endpoint del piano di controllo, l'indirizzo verrà impostato automaticamente da un pool di indirizzi.
        • Dopo aver creato un cluster di gestione o del carico di lavoro, è necessario configurare le prenotazioni DHCP dei relativi nodi e il DNS dell'endpoint come descritto in Configurazione delle prenotazioni DHCP dei nodi e del record DNS dell'endpoint (solo vSphere). Per istruzioni su come configurare le prenotazioni DHCP, consultare la documentazione del server DHCP.
    • Traffico in uscita verso vCenter Server consentito dalla rete in cui verranno eseguiti i cluster.
    • Traffico consentito tra la macchina di bootstrap locale e la porta 6443 di tutte le macchine virtuali nei cluster creati. Per impostazione predefinita, l'API di Kubernetes viene esposta nella porta 6443. Per modificare questa porta per un cluster di gestione o del carico di lavoro, impostare CLUSTER_API_SERVER_PORT oppure, per gli ambienti con NSX Advanced Load Balancer, impostare la variabile VSPHERE_CONTROL_PLANE_ENDPOINT_PORT quando si distribuisce il cluster.
    • Traffico consentito tra la porta 443 di tutte le macchine virtuali nei cluster creati e vCenter Server. Nella porta 443 è esposta l'API di vCenter Server.
    • Traffico consentito tra la macchina di bootstrap locale e i repository di immagini elencati nel file Bill of Materials (BoM) del cluster di gestione, tramite la porta 443, per TCP. Il file BoM si trova in ~/.config/tanzu/tkg/bom/ e il suo nome include la versione Tanzu Kubernetes Grid, ad esempio tkg-bom-v2.3.1+vmware.1.yaml per la versione v2.3.1.
    • Il servizio NTP (Network Time Protocol) in esecuzione in tutti gli host e gli host in esecuzione in UTC. Per controllare le impostazioni dell'orario negli host:
      1. Utilizzare SSH per accedere all'host ESXi.
      2. Eseguire il comando date per visualizzare le impostazioni del fuso orario.
      3. Se il fuso orario non è corretto, eseguire esxcli system time set.
    • Il server NTP deve essere accessibile da tutte le macchine virtuali. È possibile configurare questa opzione utilizzando l'opzione DHCP 42 oppure seguire le indicazioni di Configurazione di NTP senza l'opzione DHCP 42.
  • NSX Advanced Load Balancer (ALB) installato nell'istanza di vSphere se si desidera utilizzare NSX ALB come bilanciamento del carico e il provider dell'endpoint per l'alta disponibilità del piano di controllo. Vedere Installazione di NSX Advanced Load Balancer.

  • Se nell'ambiente vSphere viene eseguito VMware NSX, è possibile utilizzare le interfacce di NSX quando si distribuiscono cluster di gestione. Assicurarsi che la configurazione di NSX includa un segmento in cui DHCP è abilitato. Assicurarsi che NTP sia configurato in tutti gli host ESXi, in vCenter Server e nella macchina di bootstrap.

*In alternativa, vedere Preparazione di un ambiente con limitazioni Internet per l'installazione senza accesso alla rete esterna.

Esempi di dimensionamento del cluster di gestione

La tabella seguente descrive esempi di dimensionamento per i cluster di gestione in vSphere. Utilizzare questi dati come linee guida per assicurarsi che le dimensioni del cluster di gestione vengano modificate per gestire il numero di cluster del carico di lavoro che si intende distribuire. La colonna Dimensioni macchina virtuale carico di lavoro include le dimensioni delle macchine virtuali utilizzate per gli esempi nella colonna Può gestire….

Piano del cluster di gestione Dimensioni macchina virtuale cluster di gestione Può gestire… Dimensioni macchina virtuale cluster carico di lavoro
3 nodi del piano di controllo e 3 nodi worker

Nodi piano di controllo:

  • CPU: 2
  • Memory: 4 GB
  • Disco: 20 GB

Nodi worker:

  • CPU: 2
  • Memory: 4 GB
  • Disco: 20 GB
Esempi:
  • 5 cluster del carico di lavoro, ciascuno dei quali distribuito con 3 nodi del piano di controllo e 200 nodi worker; oppure
  • 10 cluster del carico di lavoro, ciascuno dei quali distribuito con 3 nodi del piano di controllo e 50 nodi worker

Nodi piano di controllo:

  • CPU: 2
  • Memory: 4 GB
  • Disco: 20 GB

Nodi worker:

  • CPU: 2
  • Memory: 4 GB
  • Disco: 20 GB
3 nodi del piano di controllo e 3 nodi worker

Nodi piano di controllo:

  • CPU: 4
  • Memory: 16 GB
  • Disco: 40 GB

Nodi worker:

  • CPU: 4
  • Memory: 16 GB
  • Disco: 40 GB
Esempio: un cluster del carico di lavoro, distribuito con 3 nodi del piano di controllo e 500 nodi worker

Nodi piano di controllo:

  • CPU: 16
  • Memory: 64 GB
  • Disco: 100 GB

Nodi worker:

  • CPU: 8
  • Memory: 8 GB
  • Disco: 20 GB
3 nodi del piano di controllo e 3 nodi worker

Nodi piano di controllo:

  • CPU: 4
  • Memory: 16 GB
  • Disco: 40 GB

Nodi worker:

  • CPU: 4
  • Memory: 16 GB
  • Disco: 40 GB
Esempio: 200 cluster del carico di lavoro; ogni cluster è distribuito con 3 nodi del piano di controllo e 5 nodi worker

Nodi piano di controllo:

  • CPU: 2
  • Memory: 4 GB
  • Disco: 20 GB

Nodi worker:

  • CPU: 2
  • Memory: 4 GB
  • Disco: 20 GB

Vedere anche Dimensioni minime della macchina virtuale per i nodi del cluster di seguito.

Il supervisore vSphere with Tanzu è un cluster di gestione

In vSphere 8, la funzionalità vSphere with Tanzu include un supervisore che è possibile utilizzare come cluster di gestione per Tanzu Kubernetes Grid. Ciò significa che in vSphere 8 non è necessario utilizzare tanzu management-cluster create o tanzu mc create per distribuire un cluster di gestione se vSphere with Tanzu e il supervisore sono abilitati. La distribuzione di un cluster di gestione di Tanzu Kubernetes Grid in vSphere 8 quando vSphere with Tanzu non è abilitato è supportata, ma l'opzione preferita consiste nell'abilitare vSphere with Tanzu e utilizzare il cluster supervisore integrato, se possibile. Poiché il supervisore vSphere with Tanzu è strettamente integrato con vSphere, offre un'esperienza utente più semplificata rispetto all'utilizzo di un cluster di gestione autonomo. Tuttavia, un cluster di gestione autonomo in vSphere offre più opzioni di configurazione e personalizzazione rispetto a un supervisore.

Importante

Le versioni della CLI di Tanzu compatibili con TKG 2.x e con il supervisore vSphere with Tanzu in vSphere 8 non sono compatibili con il cluster supervisore in vSphere 7. Per utilizzare la CLI di Tanzu con un cluster supervisore vSphere with Tanzu in vSphere 7, utilizzare la versione della CLI di Tanzu da TKG v1.6. Per utilizzare le versioni della CLI di Tanzu compatibili con TKG 2.x con Supervisore, eseguire l'aggiornamento a vSphere 8. È possibile distribuire un cluster di gestione autonomo TKG 2.x in vSphere 7 se non è presente un cluster supervisore vSphere with Tanzu. Per informazioni sulla compatibilità tra la CLI di Tanzu e i prodotti VMware, vedere la documentazione della CLI di Tanzu.

La CLI di Tanzu funziona sia con i cluster di gestione forniti da vSphere with Tanzu sia con i cluster di gestione autonomi distribuiti da Tanzu Kubernetes Grid in Azure, Amazon Web Services (AWS) e vSphere quando vSphere with Tanzu non è abilitato, consentendo di distribuire e gestire cluster del carico di lavoro tra più infrastrutture tramite un unico strumento. Per informazioni su come utilizzare la CLI di Tanzu con un supervisore, vedere Connessione della CLI di Tanzu al supervisore in Creazione e gestione di cluster del carico di lavoro TKG 2.3 con la CLI di Tanzu.

Per informazioni sulla funzionalità vSphere with Tanzu in vSphere 8, vedere la documentazione di vSphere with Tanzu 8.0.

Nota

In Azure VMware Solution, non è possibile creare un cluster supervisore ed è necessario distribuire un cluster di gestione per eseguire i comandi di tanzu.

Kube-VIP e NSX Advanced Load Balancer per vSphere

Ogni cluster di gestione e del carico di lavoro distribuito in vSphere richiede un indirizzo IP virtuale statico per le richieste esterne al server dell'API del cluster. È necessario assegnare questo indirizzo IP in modo che non sia compreso nell'intervallo DHCP, ma si trovi nella stessa subnet dell'intervallo DHCP.

Il pod Kube-Vip del piano di controllo del cluster utilizza questo indirizzo IP virtuale statico per le richieste dell'API e il certificato del server dell'API include l'indirizzo per abilitare la comunicazione TLS sicura. Nei cluster del carico di lavoro, Kube-Vip viene eseguito in modalità di failover di livello 2 di base, assegnando l'indirizzo IP virtuale a un nodo del piano di controllo alla volta. In questa modalità, Kube-Vip non funziona come un vero bilanciamento del carico per il traffico del piano di controllo.

Tanzu Kubernetes Grid può utilizzare Kube-Vip per il bilanciamento del carico di lavoro nei cluster del carico di lavoro (Anteprima tecnica). Non è possibile utilizzare Kube-VIP come servizio LoadBalancer nei cluster basati su Windows. Per ulteriori informazioni, vedere Bilanciamento del carico Kube-Vip.

Per bilanciare i carichi di lavoro in vSphere, utilizzare NSX Advanced Load Balancer, noto anche come Avi Load Balancer, Essentials Edition.

Importante

In vSphere 8, per utilizzare NSX Advanced Load Balancer con un cluster di gestione autonomo TKG e i relativi cluster del carico di lavoro è necessario NSX ALB v22.1.2 o versione successiva e TKG v2.1.1 o versione successiva.

Importazione del modello di immagine di base in vSphere

Prima di poter distribuire un cluster in vSphere, è necessario importare in vSphere un modello di immagine di base contenente le versioni del sistema operativo e di Kubernetes in cui vengono eseguiti i nodi del cluster. Per ogni coppia supportata di versione del sistema operativo e versione di Kubernetes, VMware pubblica un modello di immagine di base in formato OVA per la distribuzione dei cluster in vSphere. Dopo aver importato il file OVA in vSphere, è necessario convertire la macchina virtuale risultante in un modello di macchina virtuale.

Le immagini di base supportate per i nodi del cluster dipendono dal tipo di cluster, come indicato di seguito:

  • Cluster di gestione: In OVA deve essere presente Kubernetes v1.26.8, la versione predefinita per Tanzu Kubernetes Grid v2.3.1. Deve quindi essere uno dei seguenti:

    • Ubuntu v20.04 Kubernetes v1.26.8 OVA

      Nota

      In Tanzu Kubernetes Grid v2.3.1, l'immagine OVA di Ubuntu utilizza la modalità di avvio UEFI (Unified Extensible Firmware Interface).

    • Photon v3 Kubernetes v1.26.8 OVA

    • Un file OVA personalizzato con una versione di Tanzu Kubernetes personalizzata (TKr), come descritto in Creazione di immagini di macchine.

  • Cluster del carico di lavoro: OVA può avere qualsiasi combinazione supportata di versione del sistema operativo e versione di Kubernetes, come quelle incluse in una versione di Tanzu Kubernetes. Vedere Più versioni Kubernetes.

Per importare un modello di immagine di base in vSphere:

  1. Passare a VMware Customer Connect e accedere con le credenziali di VMware Customer Connect.
  2. Passare a Download dei prodotti Tanzu Kubernetes Grid v2.3.1.
  3. Scaricare un file OVA di Tanzu Kubernetes Grid per i nodi del cluster. Per il cluster di gestione, deve essere uno dei download di Kubernetes v1.26.8 OVA.

    Importante

    assicurarsi di scaricare i modelli di immagine di base OVA più recenti se vengono rilasciate patch di sicurezza.

    È possibile trovare modelli di immagine di base aggiornati che includono patch di sicurezza nella pagina di download del prodotto Tanzu Kubernetes Grid.

  4. In vSphere Client fare clic con il pulsante destro del mouse su un oggetto nell'inventario di vCenter Server e scegliere Distribuisci modello OVF.

  5. Selezionare File locale, fare clic sul pulsante per caricare i file e passare al file OVA scaricato nella macchina locale.
  6. Seguire le istruzioni del programma di installazione per distribuire una macchina virtuale da OVA.

    • Accettare o modificare il nome dell'appliance
    • Selezionare il data center o la cartella di destinazione
    • Selezionare l'host, il cluster o il pool di risorse di destinazione
    • Accettare l'accordo di licenza con l'utente finale (EULA)
    • Selezionare il formato del disco e il datastore di destinazione
    • Selezionare la rete a cui connettere la macchina virtuale
    Nota

    Se si seleziona il thick provisioning come formato del disco, quando Tanzu Kubernetes Grid crea macchine virtuali dei nodi del cluster dal modello, viene prenotato l'intero disco di ciascun nodo. Lo storage può quindi essere consumato rapidamente se si distribuiscono molti cluster o cluster con molti nodi. Tuttavia, se si seleziona il thin provisioning durante la distribuzione dei cluster, può dare un'impressione non corretta della quantità di storage disponibile. Se si seleziona il thin provisioning, è possibile che al momento della distribuzione dei cluster sia disponibile spazio di storage sufficiente, che può però esaurirsi quando i cluster vengono eseguiti e accumulano dati.

  7. Fare clic su Fine per distribuire la macchina virtuale.
  8. Al termine della distribuzione di OVA, fare clic con il pulsante destro del mouse sulla macchina virtuale e scegliere Modello > Converti in modello.

    Importante

    non accendere la macchina virtuale prima di convertirla in modello.

  9. Nella vista Macchine virtuali e modelli fare clic con il pulsante destro del mouse sul nuovo modello, scegliere Aggiungi autorizzazione e assegnare tkg-user al modello con il ruolo TKG.

    Per informazioni su come creare l'utente e il ruolo per Tanzu Kubernetes Grid, vedere Autorizzazioni necessarie per l'account vSphere di seguito.

Ripetere la procedura per ciascuna versione di Kubernetes per cui è stato scaricato il file OVA.

Autorizzazioni necessarie per l'account vSphere

L'account di vCenter Single Sign-On fornito a Tanzu Kubernetes Grid quando si distribuisce un cluster di gestione deve disporre delle autorizzazioni corrette per poter eseguire le operazioni necessarie in vSphere.

Non è consigliabile fornire un account amministratore di vSphere a Tanzu Kubernetes Grid, perché in questo modo a Tanzu Kubernetes Grid vengono concesse autorizzazioni molto più elevate di quelle di cui necessita. Il modo migliore per assegnare autorizzazioni a Tanzu Kubernetes Grid consiste nel creare un ruolo e un account utente e quindi concedere all'account utente tale ruolo per gli oggetti di vSphere.

Nota

Se si distribuiscono cluster del carico di lavoro in vSphere 7 o 8 e vSphere with Tanzu è abilitato, è necessario impostare l'autorizzazione Globale (Global) > Amministratore del cloud (Cloud Admin) oltre alle autorizzazioni elencate di seguito. Se si intende utilizzare Velero per eseguire il backup e il ripristino dei cluster del carico di lavoro, è inoltre necessario impostare le autorizzazioni indicate in Credenziali e privilegi per l'accesso a VMDK nella Guida alla programmazione di Virtual Disk Development Kit.

  1. In vSphere Client passare a Amministrazione > Controllo degli accessi > Ruoli e creare un nuovo ruolo, ad esempio TKG, con le autorizzazioni seguenti.

    Oggetto di vSphere Autorizzazione necessaria
    Cns Ricercabile
    Datastore Alloca spazio
    Sfoglia datastore
    Operazioni file di basso livello
    Globale (se si utilizza Velero per il backup e il ripristino) Disabilita metodi
    Abilita metodi
    Licenze
    Network Assegna rete
    Storage basato sul profilo Visualizzazione dello storage basato sul profilo
    Risorsa Assegna macchina virtuale al pool di risorse
    Sessioni Messaggio
    Convalida sessione
    Macchina virtuale Modifica configurazione > Aggiungi disco esistente
    Modifica configurazione > Aggiungi nuovo disco
    Modifica configurazione > Aggiungi o rimuovi dispositivo
    Modifica configurazione > Configurazione avanzata
    Modifica configurazione > Modifica conteggio CPU
    Modifica configurazione > Modifica memoria
    Modifica configurazione > Modifica impostazioni
    Modifica configurazione > Configura dispositivo non elaborato
    Modifica configurazione > Estendi disco virtuale
    Modifica configurazione > Modifica impostazioni dispositivo
    Modifica configurazione > Rimuovi disco
    Modifica configurazione > Attiva/Disattiva rilevamento modifiche disco*
    Modifica inventario > Crea da esistente
    Modifica inventario > Rimuovi
    Interazione > Accendi
    Interazione > Spegni
    Provisioning > Consenti accesso a disco di sola lettura*
    Provisioning > Consenti download macchina virtuale*
    Provisioning > Distribuisci modello Gestione snapshot > Crea snapshot* Gestione snapshot > Rimuovi snapshot*

    *Necessaria per abilitare il plug-in Velero, come descritto in Backup e ripristino dell'infrastruttura di cluster di gestione e del carico di lavoro. Se necessario, è possibile aggiungere queste autorizzazioni in un secondo momento.
    vApp Importa

  2. In Amministrazione > Single Sign-On > Utenti e gruppi creare un nuovo account utente nel dominio appropriato, ad esempio tkg-user.

  3. Nelle viste Host e cluster, Macchine virtuali e modelli, Storage e Rete, fare clic con il pulsante destro del mouse sugli oggetti che verranno utilizzati dalla distribuzione di Tanzu Kubernetes Grid, scegliere Aggiungi autorizzazione e assegnare tkg-user con il ruolo TKG a ciascun oggetto.

    • Host e cluster
      • Oggetto di vCenter Server root
      • Data center e tutte le cartelle dell'host e del cluster, dall'oggetto del data center fino al cluster che gestisce la distribuzione di Tanzu Kubernetes Grid
      • Host e cluster di destinazione
      • Pool di risorse di destinazione con l'opzione Propaga agli elementi secondari abilitata
    • Macchine virtuali e modelli
      • Modelli di immagine di base di Tanzu Kubernetes Grid distribuiti
      • Cartelle dei modelli e delle macchine virtuali di destinazione con l'opzione Propaga agli elementi secondari abilitata
    • Storage
      • Datastore e tutte le cartelle di storage, dall'oggetto del data center ai datastore che verranno utilizzati per le distribuzioni di Tanzu Kubernetes Grid
    • Rete
      • Reti o gruppi di porte distribuite a cui verranno assegnati i cluster
      • Distributed Switch

Dimensioni minime delle macchine virtuali per i nodi del cluster

Configurare le dimensioni dei nodi del cluster di gestione e del carico di lavoro in base alla complessità del cluster e alla richiesta prevista. È possibile impostarle su small, medium, large o extra-large come indicato in Dimensioni dei nodi predefinite.

Per tutti i cluster in vSphere, è possibile configurare tali dimensioni con le variabili di configurazione del cluster SIZE, CONTROLPLANE_SIZE e WORKER_SIZE. In alternativa, per una maggiore granularità, è possibile utilizzare le variabili di configurazione VSPHERE_*, _DISK_GIB, _NUM_CPUS e _MEM_MIB.

Per i cluster di gestione, anche il campo Tipo di istanza dell'interfaccia del programma di installazione consente di configurare le dimensioni delle macchine virtuali dei nodi.

Per i cluster di gestione e del carico di lavoro con un singolo worker che eseguono applicazioni di esempio, utilizzare le seguenti dimensioni minime delle macchine virtuali:

  • Nessun servizio installato: small
  • Servizi di base installati (Wavefront, Fluent Bit, Contour, Envoy e agente TMC): medium

Creazione di una coppia di chiavi SSH

Per consentire alla CLI di Tanzu di connettersi a vSphere dalla macchina in cui viene eseguita, è necessario fornire la parte della chiave pubblica di una coppia di chiavi SSH a Tanzu Kubernetes Grid quando si distribuisce il cluster di gestione. Se nella macchina in cui si esegue la CLI non ne è già presente uno, è possibile utilizzare uno strumento come ssh-keygen per generare una coppia di chiavi.

  1. Nella macchina in cui verrà eseguita la CLI di Tanzu, eseguire il comando ssh-keygen seguente.

    ssh-keygen -t rsa -b 4096 -C "[email protected]"
    
  2. Al prompt Enter file in which to save the key (/root/.ssh/id_rsa): premere Invio per accettare il file predefinito.

  3. Immettere e ripetere una password per la coppia di chiavi.
  4. Aggiungere la chiave privata all'agente SSH in esecuzione nella macchina e immettere la password creata nel passaggio precedente.

    ssh-add ~/.ssh/id_rsa
    
  5. Aprire il file .ssh/id_rsa.pub in un editor di testo in modo da poterlo copiare e incollare facilmente quando si distribuisce un cluster di gestione.

Recupero delle identificazioni personali del certificato di vSphere

Se l'ambiente vSphere utilizza certificati autofirmati non attendibili per eseguire l'autenticazione delle connessioni, è necessario verificare l'identificazione personale di vCenter Server quando si distribuisce un cluster di gestione. Se l'ambiente vSphere utilizza certificati attendibili firmati da un'autorità di certificazione (CA) nota, non è necessario verificare l'identificazione personale.

È possibile utilizzare il visualizzatore dei certificati del browser Web per ottenere l'identificazione personale del certificato vSphere.

  1. Accedere a vSphere Client in un browser Web.
  2. Accedere al visualizzatore dei certificati facendo clic sull'icona Sicura (Secure) (lucchetto) a sinistra dell'indirizzo Web nel campo URL.

    I passaggi successivi dipendono dal browser utilizzato. Ad esempio, in Google Chrome selezionare Connessione sicura > Certificate valido per visualizzare i dettagli del certificato, inclusa l'identificazione personale.

  3. Prendere nota del valore di Impronta digitale SHA-1 (SHA-1 Fingerprint) nel browser. Se contiene spazi tra ciascuna coppia esadecimale, sostituire ogni spazio con un carattere :, ad esempio 6D:4A:DC:6C:C4:43:73:BB:DF:9A:32:68:67:56:F9:96:02:08:64:F4.

    È possibile utilizzare la stringa dell'identificazione personale copiata per verificarla quando si distribuisce un cluster di gestione dall'interfaccia del programma di installazione, oppure specificarla nell'opzione VSPHERE_TLS_THUMBPRINT quando si distribuiscono cluster da un file di configurazione.

Impostazioni e regole per IPv6

Per distribuire un cluster di gestione che supporti IPv6 in un ambiente di rete IPv6:

  1. Configurare Linux in modo che accetti gli annunci del router per garantire che la route IPv6 predefinita non venga rimossa dalla tabella di routing all'avvio del servizio Docker. Per ulteriori informazioni, vedere Docker CE elimina la route predefinita IPv6. sudo sysctl net.ipv6.conf.eth0.accept_ra=2

  2. Creare una regola di mascheramento per il cluster di bootstrap per inviare il traffico in uscita dal cluster di bootstrap: sudo ip6tables -t nat -A POSTROUTING -s fc00:f853:ccd:e793::/64 ! -o docker0 -j MASQUERADE Per ulteriori informazioni sulle regole di mascheramento, vedere MASCHERAMENTO.

  3. Distribuire il cluster di gestione eseguendo tanzu mc create come indicato in Distribuzione di cluster di gestione da un file di configurazione.

    • Quando si crea il file di configurazione per il cluster di gestione, impostare TKG_IP_FAMILY e altre variabili come descritto in Configurazione per IPv6.
    • Per il supporto di IPv6, è necessario distribuire il cluster di gestione da un file di configurazione, non dall'interfaccia del programma di installazione.

Preparazione delle zone di disponibilità

Per distribuire una gestione autonoma e i cluster del carico di lavoro da eseguire in più zone di disponibilità (ZD) in vSphere, è necessario:

  1. Creare o identificare uno dei seguenti set di oggetti in vSphere:

    • Un data center vSphere e relativi cluster
    • Un cluster vSphere e i relativi gruppi di host
  2. Contrassegnare gli oggetti per associarli a una regione e alle relative ZD in Kubernetes, come descritto in Preparazione delle regioni e delle ZD in vSphere.

Passaggi successivi

Per le distribuzioni di produzione, è consigliabile abilitare la gestione delle identità per i cluster:

Se si utilizza Tanzu Kubernetes Grid in un ambiente con una connessione Internet esterna, dopo aver configurato la gestione delle identità, è possibile distribuire cluster di gestione in vSphere.

check-circle-line exclamation-circle-line close-line
Scroll to top icon