This site will be decommissioned on January 30th 2025. After that date content will be available at techdocs.broadcom.com.

Aggiornamento di Tanzu Kubernetes Grid

Per aggiornare Tanzu Kubernetes Grid (TKG), scaricare e installare la nuova versione della CLI di Tanzu nella macchina utilizzata come macchina di bootstrap. È inoltre necessario scaricare e installare modelli di immagine di base e macchine virtuali, a seconda che si stiano aggiornando i cluster precedentemente distribuiti in vSphere, Amazon Web Services (AWS) o Azure.

Nota

Nel percorso di aggiornamento di TKG, v2.3 segue immediatamente v2.2.

Dopo aver installato le nuove versioni dei componenti, utilizzare i comandi CLI tanzu mc upgrade e tanzu cluster upgrade per aggiornare i cluster di gestione e i cluster del carico di lavoro.

Le sezioni successive sono i passaggi generali necessari per aggiornare Tanzu Kubernetes Grid. Questa procedura presuppone che si stia eseguendo l'aggiornamento a Tanzu Kubernetes Grid v2.3.1.

Alcuni passaggi sono necessari solo se si esegue un aggiornamento secondario da Tanzu Kubernetes Grid v2.2.x a v2.3.x non sono necessari se si esegue un aggiornamento patch da Tanzu Kubernetes Grid v2.3.x a v2.3.y.

Importante

Tanzu Kubernetes Grid v2.4.x è l'ultima versione di TKG che supporta l'aggiornamento dei cluster di gestione TKG autonomi e dei cluster del carico di lavoro TKG esistenti in AWS e Azure. La possibilità di aggiornare i cluster di gestione TKG autonomi e i cluster del carico di lavoro TKG in AWS e Azure verrà rimossa nella versione Tanzu Kubernetes Grid v2.5.

A partire da ora, VMware consiglia di utilizzare Tanzu Mission Control per creare cluster AWS EKS e Azure AKS nativi. Tuttavia, l'aggiornamento dei cluster di gestione TKG autonomi e dei cluster del carico di lavoro TKG esistenti in AWS e Azure rimane completamente supportato per tutte le versioni di TKG fino a TKG v2.4.x incluso.

Per ulteriori informazioni, vedere Deprecazione dei cluster di gestione e del carico di lavoro TKG in AWS e Azure nelle Note di rilascio di VMware Tanzu Kubernetes Grid v2.4.

Prerequisiti

Prima di eseguire l'aggiornamento a TKG v2.3.x, verificare che la distribuzione corrente sia TKG v2.2.x o una versione v2.3 precedente. Per eseguire l'aggiornamento a TKG v2.3.x da versioni precedenti alla v2.2, è innanzitutto necessario eseguire l'aggiornamento alla versione v2.2.x con la versione v2.2.x della CLI di Tanzu.

Download e installazione della nuova versione della CLI di Tanzu

Questo passaggio è necessario sia per gli aggiornamenti principali dalla versione v2.2.x alla versione v2.3.x sia per gli aggiornamenti patch dalla versione v2.3.x alla versione v2.3.y.

Per scaricare e installare la nuova versione della CLI di Tanzu, eseguire i passaggi seguenti.

  1. Eliminare il file ~/.config/tanzu/tkg/compatibility/tkg-compatibility.yaml.

    Se non si elimina questo file, la nuova versione della CLI di Tanzu continuerà a utilizzare il file Bill of Materials (BOM) per la versione precedente. Se si elimina questo file, la CLI di Tanzu estrae il BOM aggiornato. È necessario eseguire questo passaggio sia quando si esegue l'aggiornamento dalla versione 2.2.x alla versione 2.3.x sia quando si esegue l'aggiornamento dalla versione 2.3.x alla versione 2.3.y.

  2. Seguire le istruzioni in Installazione della CLI di Tanzu e della CLI di Kubernetes per l'utilizzo con i cluster di gestione autonomi per scaricare e installare la CLI di Tanzu e kubectl nella macchina in cui attualmente sono eseguiti i comandi tanzu. Se uno dei cluster di gestione autonomi è configurato per l'utilizzo di un provider di identità LDAP, eseguire i passaggi descritti in (Solo LDAP) Aggiornamento delle impostazioni LDAP dopo aver installato la CLI di Tanzu e prima di aggiornare i plug-in della CLI a Tanzu Kubernetes Grid v2.3.

  3. Dopo aver installato la nuova versione della CLI di Tanzu, eseguire tanzu version per verificare che sia installata la versione corretta della CLI di Tanzu. Per un elenco delle versioni della CLI compatibili con Tanzu Kubernetes Grid v2.3, vedere Product Interoperability Matrix.
  4. Dopo aver installato kubectl, eseguire kubectl version per verificare che sia installata la versione corretta di kubectl.

Per informazioni sui comandi della CLI di Tanzu e sulle opzioni disponibili, vedere Guida di riferimento ai comandi della CLI di Tanzu.

Preparazione all'aggiornamento dei cluster

Prima di poter aggiornare i cluster di gestione e del carico di lavoro, è necessario eseguire passi preparatori a seconda che i cluster siano stati distribuiti in vSphere, AWS o Azure. Questo passaggio è necessario sia per gli aggiornamenti principali dalla versione v2.2.x alla versione v2.3.x sia per gli aggiornamenti patch dalla versione v2.3.x alla versione v2.3.y.

vSphere
Prima di poter aggiornare una distribuzione di Tanzu Kubernetes Grid su vSphere, è necessario importare in vSphere nuove versioni dei modelli di immagine di base che verranno eseguiti nei cluster di gestione e del carico di lavoro aggiornati. VMware pubblica i modelli di immagine di base in formato OVA per ogni versione del sistema operativo e di Kubernetes supportati. Dopo aver importato i file OVA, è necessario convertire le macchine virtuali risultanti in modelli di macchine virtuali.

Questa procedura presuppone che si stia eseguendo l'aggiornamento a Tanzu Kubernetes Grid v2.3.x.

  1. Passare a VMware Customer Connect e accedere con le credenziali di VMware Customer Connect.
  2. Passare a Download dei prodotti Tanzu Kubernetes Grid v2.3.1.
  3. Scaricare i file OVA di Tanzu Kubernetes Grid più recenti per le righe della versione del sistema operativo e di Kubernetes in esecuzione nei cluster di gestione e del carico di lavoro.

    Ad esempio, per immagini Photon v3:

    • Kubernetes v1.26.8: Photon v3 Kubernetes v1.26.8 OVA
    • Kubernetes v1.25.13: Photon v3 Kubernetes v1.25.13 OVA
    • Kubernetes v1.24.17: Photon v3 Kubernetes v1.24.17 OVA

    Per le immagini Ubuntu 20.04:

    • Kubernetes v1.26.8: Ubuntu 2004 Kubernetes v1.26.8 OVA
    • Kubernetes v1.25.13: Ubuntu 2004 Kubernetes v1.25.13 OVA
    • Kubernetes v1.24.17: Ubuntu 2004 Kubernetes v1.24.17 OVA
    Importante

    assicurarsi di scaricare i modelli di immagine di base OVA più recenti se vengono rilasciate patch di sicurezza. È possibile trovare modelli di immagine di base aggiornati che includono patch di sicurezza nella pagina di download del prodotto Tanzu Kubernetes Grid.

  4. In vSphere Client fare clic con il pulsante destro del mouse su un oggetto nell'inventario di vCenter Server e scegliere Distribuisci modello OVF (Deploy OVF template).
  5. Selezionare File locale (Local file), fare clic sul pulsante per caricare i file e passare al file OVA scaricato nella macchina locale.
  6. Seguire le istruzioni del programma di installazione per distribuire una macchina virtuale da OVA.

    • Accettare o modificare il nome dell'appliance.
    • Selezionare il data center o la cartella di destinazione.
    • Selezionare l'host, il cluster o il pool di risorse di destinazione.
    • Accettare l'accordo di licenza con l'utente finale (EULA).
    • Selezionare il formato del disco e il datastore di destinazione.
    • Selezionare la rete a cui connettere la macchina virtuale.
  7. Fare clic su Fine per distribuire la macchina virtuale.
  8. Al termine della distribuzione di OVA, fare clic con il pulsante destro del mouse sulla macchina virtuale e scegliere Modello > Converti in modello.
  9. Nella vista Macchine virtuali e modelli (VMs and Templates), fare clic con il pulsante destro del mouse sul nuovo modello, scegliere Aggiungi autorizzazione (Add Permission) e assegnare l'utente Tanzu Kubernetes Grid, ad esempio tkg-user, al modello con il ruolo di Tanzu Kubernetes Grid, ad esempio TKG. Questo utente e questo ruolo sono stati creati in Preparazione della distribuzione dei cluster di gestione in vSphere.

Ripetere la procedura per ciascuna versione di Kubernetes per cui è stato scaricato il file OVA.

Compatibilità con VMware Cloud on AWS SDDC

Se si aggiornano i cluster del carico di lavoro distribuiti in VMware Cloud on AWS, verificare che la versione dell'SDDC (Software-Defined Data Center) sottostante utilizzata dalla distribuzione esistente sia compatibile con la versione di Tanzu Kubernetes Grid a cui si sta eseguendo l'aggiornamento.

Per visualizzare la versione di un SDDC, selezionare Visualizza dettagli (View Details) nel riquadro SDDC nella console di VMware Cloud e fare clic sul riquadro Supporto (Support).

Per convalidare la compatibilità con Tanzu Kubernetes Grid, fare riferimento alla Matrice di interoperabilità dei prodotti VMware.

AWS
Dopo aver installato la nuova versione della CLI di Tanzu e altri strumenti, ma prima di aggiornare un cluster di gestione, è necessario reimpostare le autorizzazioni nell'account AWS eseguendo il comando tanzu mc permissions aws set.
tanzu mc permissions aws set

Questo passaggio è necessario sia per gli aggiornamenti principali dalla versione v2.2.x alla versione v2.3.x sia per gli aggiornamenti patch dalla versione v2.3.x alla versione v2.3.y. Per ulteriori informazioni sull'autorizzazione AWS impostata dal comando, vedere Autorizzazioni necessarie per AWS.

Le immagini delle macchine Amazon (AMI) di Amazon Linux 2 che includono le versioni di Kubernetes supportate sono disponibili pubblicamente per tutti gli utenti di AWS, in tutte le regioni di AWS supportate. Tanzu Kubernetes Grid utilizza automaticamente l'AMI appropriata per la versione di Kubernetes specificata durante l'aggiornamento.

Azure
Prima di aggiornare una distribuzione di Tanzu Kubernetes Grid in Azure, è necessario accettare i termini per la nuova immagine della macchina virtuale predefinita e per ogni immagine di macchina virtuale non predefinita che si intende utilizzare per le macchine virtuali dei cluster. È necessario accettare questi termini una sola volta per ogni sottoscrizione.

Per accettare i termini:

  1. Elencare tutte le immagini di macchine virtuali disponibili per Tanzu Kubernetes Grid in Azure Marketplace:

    az vm image list --publisher vmware-inc --offer tkg-capi --all
    
  2. Accettare i termini per la nuova immagine della macchina virtuale predefinita:

    az vm image terms accept --urn publisher:offer:sku:version
    

    Ad esempio, per accettare i termini dell'immagine della macchina virtuale predefinita in Tanzu Kubernetes Grid v2.3.1, k8s-1dot26dot8-ubuntu-2004, eseguire:

    az vm image terms accept --urn vmware-inc:tkg-capi:k8s-1dot26dot8-ubuntu-2004:2021.05.17
    
  3. Se si intende aggiornare uno qualsiasi dei cluster del carico di lavoro a una versione di Kubernetes non predefinita, ad esempio v1.25.13 o v1.24.17, accettare i termini per ogni versione non predefinita che si desidera utilizzare per le macchine virtuali del cluster.


Aggiornamento dei cluster di gestione autonomi

Questo passaggio è necessario solo per TKG con un cluster di gestione autonomo. Se si esegue TKG con un supervisore vSphere with Tanzu, aggiornare il supervisore come parte di vSphere e aggiornare la versione di Kubernetes del supervisore aggiornandone i TKr.

Questo passaggio è necessario sia per gli aggiornamenti principali dalla versione v2.2.x alla versione v2.3.x sia per gli aggiornamenti patch dalla versione v2.3.x alla versione v2.3.y.

Per aggiornare Tanzu Kubernetes Grid, è necessario aggiornare tutti i cluster di gestione nella distribuzione. Non è possibile aggiornare i cluster del carico di lavoro finché non si aggiornano i cluster di gestione che li gestiscono.

Eseguire la procedura descritta in Aggiornamento dei cluster di gestione autonomi per aggiornare i cluster di gestione.

Aggiornamento dei cluster del carico di lavoro

Questo passaggio è necessario sia per gli aggiornamenti principali dalla versione v2.2.x alla versione v2.3.x sia per gli aggiornamenti patch dalla versione v2.3.x alla versione v2.3.y.

Eseguire la procedura descritta in Aggiornamento dei cluster del carico di lavoro per aggiornare i cluster del carico di lavoro che eseguono i carichi di lavoro.

Operazioni successive all'aggiornamento

Dopo aver aggiornato i cluster, è necessario eseguire ulteriori passaggi per completare la procedura di aggiornamento.

Sincronizzazione di versioni del pacchetto precedenti a n-2

Alcuni pacchetti installati per impostazione predefinita nel cluster di gestione, ad esempio cert-manager, possono essere installati come pacchetti gestiti dalla CLI nei cluster dei carichi di lavoro e dei servizi condivisi. Quando il cluster di gestione viene aggiornato all'ultima versione di Tanzu Kubernetes Grid, i pacchetti predefiniti vengono aggiornati automaticamente.

È possibile eseguire versioni diverse dei pacchetti gestiti dalla CLI in cluster del carico di lavoro diversi. In un cluster del carico di lavoro, è possibile eseguire la versione più recente supportata di un pacchetto gestito dalla CLI o le versioni del pacchetto presenti nelle ultime due versioni di Tanzu Kubernetes Grid installate in precedenza. Ad esempio, se la versione in pacchetto più recente di cert-manager è la v1.11.1 e le due precedenti installazioni di Tanzu Kubernetes Grid eseguivano cert-manager v1.10.1 e v1.7.2, è possibile eseguire le versioni v1.11.1, v1.10.1 e v1.7.2 di cert-manager nei cluster del carico di lavoro.

Per tutti i cluster del carico di lavoro che eseguono versioni dei pacchetti antecedenti a n-2 versioni precedenti installate di Tanzu Kubernetes Grid alle versioni del pacchetto nel cluster di gestione, è necessario aggiornare il repository del pacchetto (vedere Aggiornamento di un repository di pacchetti) e quindi aggiornare il pacchetto nei cluster del carico di lavoro (vedere Aggiornamento di un pacchetto). Se non si aggiorna la versione del pacchetto, non sarà possibile aggiornare la configurazione del pacchetto perché il repository del pacchetto potrebbe non includere una versione precedente a n-2 del pacchetto.

Importante

Se Prometheus è installato in un cluster del carico di lavoro e si aggiorna il cluster del carico di lavoro a Kubernetes v1.25, è necessario aggiornare Prometheus come minimo alla versione 2.37.0+vmware.3-tkg.1. Le versioni precedenti del pacchetto di Prometheus, ad esempio la versione 2.37.0+vmware.1-tkg.1, non sono compatibili con Kubernetes 1.25.

Operazioni post-aggiornamento specifiche del provider

A seconda che i cluster siano in esecuzione su vSphere, AWS o Azure, è necessario eseguire certe operazioni dopo aver aggiornato i cluster.

vSphere
Aggiornamento della configurazione di NSX Advanced Load Balancer dopo l'aggiornamento di Tanzu Kubernetes Grid

Se NSX ALB non è stato abilitato nell'installazione di TKG v2.2, vedere Installazione e configurazione di NSX Advanced Load Balancer per informazioni su come installare NSX ALB.

Se NSX ALB è stato abilitato nell'installazione di TKG v2.2, vedere le Note di rilascio di Tanzu Kubernetes Grid v2.3 per informazioni sulle versioni del controller Avi supportate in questa versione e, se necessario, aggiornare il controller Avi a una versione compatibile. Per informazioni su come aggiornare il controller Avi, vedere Aggiornamenti flessibili per Avi Vantage.

AWS
Installazione del driver CSI di AWS EBS dopo l'aggiornamento di Tanzu Kubernetes Grid

TKG v2.2 e versioni successive installano automaticamente il driver CSI di AWS EBS nei cluster del carico di lavoro appena creati, ma per eseguire CSI di AWS EBS nei cluster aggiornati da v2.1, il driver deve essere installato manualmente. Eseguire questa procedura per installare manualmente il driver CSI di EBS AWS in un cluster che è stato creato in TKG v2.1 o versioni precedenti e in cui non è mai stato installato il driver CSI di AWS EBS.

  1. Concedere le autorizzazioni per il driver CSI di AWS EBS:

    export AWS_REGION={YOUR_AWS_REGION}
    tanzu mc permissions aws set
    
  2. Per ogni cluster del carico di lavoro che utilizza lo storage CSI:

    1. Esportare le variabili di ambiente seguenti e impostare il flag di funzionalità:

      export _TKG_CLUSTER_FORCE_ROLE="management"
      export FILTER_BY_ADDON_TYPE="csi/aws-ebs-csi-driver"
      export NAMESPACE="tkg-system"
      export DRY_RUN_MODE="legacy"
      tanzu config set features.cluster.allow-legacy-cluster true
      

      Impostare NAMESPACE sullo spazio dei nomi del cluster, tkg-system nell'esempio precedente.

    2. Generare il manifest del driver CSI:

      tanzu cl create ${TARGET_CLUSTER_NAME} --dry-run -f ~/MANAGEMENT_CLUSTER_CREATE_CONFIG.yaml > csi-driver-addon-manifest.yaml
      

      Dove TARGET_CLUSTER_NAME è il nome del cluster in cui si sta installando il driver CSI.

    3. Aggiornare lo spazio dei nomi del segreto nei metadati in csi-driver-addon-manifest.yaml con lo spazio dei nomi del cluster del carico di lavoro. Usare il comando kubectl get cluster -A per visualizzare lo spazio dei nomi del cluster.

    4. Applicare le modifiche nel contesto del cluster di gestione:

      kubectl apply -f csi-driver-addon-manifest.yaml
      
    5. Annullare l'impostazione delle variabili di ambiente e del flag di funzionalità seguenti:

      unset _TKG_CLUSTER_FORCE_ROLE
      unset FILTER_BY_ADDON_TYPE
      unset NAMESPACE
      unset DRY_RUN_MODE
      tanzu config set features.cluster.allow-legacy-cluster false
      
  3. Per il cluster di gestione che utilizza lo storage CSI:

    1. Esportare le variabili di ambiente seguenti:

      export _TKG_CLUSTER_FORCE_ROLE="management"
      export FILTER_BY_ADDON_TYPE="csi/aws-ebs-csi-driver"
      export NAMESPACE="tkg-system"
      export DRY_RUN_MODE="legacy"
      tanzu config set features.cluster.allow-legacy-cluster true
      

      Impostare NAMESPACE sullo spazio dei nomi del cluster, tkg-system nell'esempio precedente.

    2. Generare il manifest del driver CSI:

      tanzu mc create ${MANAGEMENT_CLUSTER_NAME} --dry-run -f ~/MANAGEMENT_CLUSTER_CREATE_CONFIG.yaml > csi-driver-addon-manifest.yaml
      

      In cui MANAGEMENT_CLUSTER_NAME è il nome del cluster di gestione.

    3. Aggiornare lo spazio dei nomi del segreto nei metadati in csi-driver-addon-manifest.yaml con lo spazio dei nomi del cluster di gestione. Usare il comando kubectl get cluster -A per visualizzare lo spazio dei nomi del cluster.

    4. Applicare le modifiche nel contesto del cluster di gestione:

      kubectl apply -f csi-driver-addon-manifest.yaml
      
    5. Annullare l'impostazione delle variabili di ambiente e del flag di funzionalità seguenti:

      unset _TKG_CLUSTER_FORCE_ROLE
      unset FILTER_BY_ADDON_TYPE
      unset NAMESPACE
      unset DRY_RUN_MODE
      tanzu config set features.cluster.allow-legacy-cluster false
      
Azure
Installazione del driver CSI di Azure Disk dopo l'aggiornamento di Tanzu Kubernetes Grid

TKG v2.1 e versioni successive installano automaticamente il driver CSI di Azure Disk nei cluster del carico di lavoro appena creati, ma per eseguire il CSI di Azure Disk nei cluster aggiornati da v1.6, il driver deve essere installato manualmente. Eseguire questa procedura per installare manualmente il driver CSI di Azure Disk in un cluster che è stato creato in TKG v1.6 o versioni precedenti e in cui non è mai stato installato il driver CSI di Azure Disk.

  1. Esportare le variabili di ambiente seguenti e impostare il flag di funzionalità:

    export _TKG_CLUSTER_FORCE_ROLE="management"
    export FILTER_BY_ADDON_TYPE="csi/azuredisk-csi-driver"
    export NAMESPACE="tkg-system"
    export DRY_RUN_MODE="legacy"
    tanzu config set features.cluster.allow-legacy-cluster true
    

    Impostare NAMESPACE sullo spazio dei nomi del cluster, tkg-system nell'esempio precedente.

  2. Per ogni cluster del carico di lavoro che utilizza lo storage CSI:

    1. Generare il manifest del driver CSI:

      tanzu cl create ${TARGET_CLUSTER_NAME} --dry-run -f ~/MANAGEMENT_CLUSTER_CREATE_CONFIG.yaml > csi-driver-addon-manifest.yaml
      

      Dove TARGET_CLUSTER_NAME è il nome del cluster in cui si sta installando il driver CSI.

    2. Aggiornare lo spazio dei nomi del segreto nei metadati in csi-driver-addon-manifest.yaml con lo spazio dei nomi del cluster del carico di lavoro. Usare il comando kubectl get cluster -A per visualizzare lo spazio dei nomi del cluster.

    3. Applicare le modifiche nel contesto del cluster di gestione:

      kubectl apply -f csi-driver-addon-manifest.yaml
      
    4. Annullare l'impostazione delle variabili di ambiente e del flag di funzionalità seguenti:

      unset _TKG_CLUSTER_FORCE_ROLE
      unset FILTER_BY_ADDON_TYPE
      unset NAMESPACE
      unset DRY_RUN_MODE
      tanzu config set features.cluster.allow-legacy-cluster false
      
  3. Per il cluster di gestione che utilizza lo storage CSI:

    1. Esportare le variabili di ambiente seguenti:

      export _TKG_CLUSTER_FORCE_ROLE="management"
      export FILTER_BY_ADDON_TYPE="csi/azuredisk-csi-driver"
      export NAMESPACE="tkg-system"
      export DRY_RUN_MODE="legacy"
      tanzu config set features.cluster.allow-legacy-cluster true
      

      Impostare NAMESPACE sullo spazio dei nomi del cluster, tkg-system nell'esempio precedente.

    2. Generare il manifest del driver CSI:

      tanzu mc create ${MANAGEMENT_CLUSTER_NAME} --dry-run -f ~/MANAGEMENT_CLUSTER_CREATE_CONFIG.yaml > csi-driver-addon-manifest.yaml
      

      In cui MANAGEMENT_CLUSTER_NAME è il nome del cluster di gestione.

    3. Aggiornare lo spazio dei nomi del segreto nei metadati in csi-driver-addon-manifest.yaml con lo spazio dei nomi del cluster di gestione. Usare il comando kubectl get cluster -A per visualizzare lo spazio dei nomi del cluster.

    4. Applicare le modifiche nel contesto del cluster di gestione:

      kubectl apply -f csi-driver-addon-manifest.yaml
      
    5. Annullare l'impostazione delle variabili di ambiente e del flag di funzionalità seguenti:

      unset _TKG_CLUSTER_FORCE_ROLE
      unset FILTER_BY_ADDON_TYPE
      unset NAMESPACE
      unset DRY_RUN_MODE
      tanzu config set features.cluster.allow-legacy-cluster false
      

Installazione del driver CSI di Azure File dopo l'aggiornamento di Tanzu Kubernetes Grid

Se il cluster non lo ha già installato prima, eseguire questa procedura per installare il driver CSI di Azure File dopo l'aggiornamento dell'installazione di Tanzu Kubernetes Grid alla versione v2.3+.

  1. Esportare le variabili di ambiente seguenti e impostare il flag di funzionalità:

    export _TKG_CLUSTER_FORCE_ROLE="management"
    export FILTER_BY_ADDON_TYPE="csi/azurefile-csi-driver"
    export NAMESPACE="tkg-system"
    export DRY_RUN_MODE="legacy"
    tanzu config set features.cluster.allow-legacy-cluster true
    

    Impostare NAMESPACE sullo spazio dei nomi del cluster, tkg-system nell'esempio precedente.

  2. Per ogni cluster del carico di lavoro che utilizza lo storage CSI:

    1. Generare il manifest del driver CSI:

      tanzu cl create ${TARGET_CLUSTER_NAME} --dry-run -f ~/MANAGEMENT_CLUSTER_CREATE_CONFIG.yaml > csi-driver-addon-manifest.yaml
      

      Dove TARGET_CLUSTER_NAME è il nome del cluster in cui si sta installando il driver CSI.

    2. Aggiornare lo spazio dei nomi del segreto nei metadati in csi-driver-addon-manifest.yaml con lo spazio dei nomi del cluster del carico di lavoro. Usare il comando kubectl get cluster -A per visualizzare lo spazio dei nomi del cluster.

    3. Applicare le modifiche nel contesto del cluster di gestione:

      kubectl apply -f csi-driver-addon-manifest.yaml
      
    4. Annullare l'impostazione delle variabili di ambiente e del flag di funzionalità seguenti:

      unset _TKG_CLUSTER_FORCE_ROLE
      unset FILTER_BY_ADDON_TYPE
      unset NAMESPACE
      unset DRY_RUN_MODE
      tanzu config set features.cluster.allow-legacy-cluster false
      
  3. Per il cluster di gestione che utilizza lo storage CSI:

    1. Esportare le variabili di ambiente seguenti:

      export _TKG_CLUSTER_FORCE_ROLE="management"
      export FILTER_BY_ADDON_TYPE="csi/azurefile-csi-driver"
      export NAMESPACE="tkg-system"
      export DRY_RUN_MODE="legacy"
      tanzu config set features.cluster.allow-legacy-cluster true
      

      Impostare NAMESPACE sullo spazio dei nomi del cluster, tkg-system nell'esempio precedente.

    2. Generare il manifest del driver CSI:

      tanzu mc create ${MANAGEMENT_CLUSTER_NAME} --dry-run -f ~/MANAGEMENT_CLUSTER_CREATE_CONFIG.yaml > csi-driver-addon-manifest.yaml
      

      In cui MANAGEMENT_CLUSTER_NAME è il nome del cluster di gestione.

    3. Aggiornare lo spazio dei nomi del segreto nei metadati in csi-driver-addon-manifest.yaml con lo spazio dei nomi del cluster di gestione. Usare il comando kubectl get cluster -A per visualizzare lo spazio dei nomi del cluster.

    4. Applicare le modifiche nel contesto del cluster di gestione:

      kubectl apply -f csi-driver-addon-manifest.yaml
      
    5. Annullare l'impostazione delle variabili di ambiente e del flag di funzionalità seguenti:

      unset _TKG_CLUSTER_FORCE_ROLE
      unset FILTER_BY_ADDON_TYPE
      unset NAMESPACE
      unset DRY_RUN_MODE
      tanzu config set features.cluster.allow-legacy-cluster false
      


Aggiornamento del ripristino e della diagnostica degli arresti anomali

Questo passaggio è necessario sia per gli aggiornamenti principali dalla versione v2.2.x alla versione v2.3.x sia per gli aggiornamenti patch dalla versione v2.3.x alla versione v2.3.y.

Per informazioni su come aggiornare il ripristino e la diagnostica degli arresti anomali, vedere Installazione o aggiornamento del file binario di ripristino e diagnostica degli arresti anomali.

Passaggi successivi

Esaminare i cluster di gestione aggiornati o registrarli in Tanzu Mission Control. Vedere Esame e registrazione un cluster di gestione autonomo appena distribuito.

check-circle-line exclamation-circle-line close-line
Scroll to top icon