This site will be decommissioned on January 30th 2025. After that date content will be available at techdocs.broadcom.com.

Distribuzione di un cluster del carico di lavoro in hardware specializzato

Tanzu Kubernetes Grid supporta la distribuzione di cluster del carico di lavoro in tipi specifici di host abilitati per GPU in vSphere 7.0 e versioni successive.

Distribuzione di un cluster del carico di lavoro abilitato per GPU

Per utilizzare un nodo con una GPU in un cluster del carico di lavoro vSphere, è necessario abilitare la modalità passthrough PCI. In questo modo, il cluster può accedere direttamente alla GPU, ignorando l'hypervisor ESXi, che fornisce un livello di prestazioni simile a quello della GPU in un sistema nativo. Quando si utilizza la modalità passthrough PCI, ogni dispositivo GPU viene dedicato a una macchina virtuale nel cluster del carico di lavoro vSphere.

Nota

Per aggiungere nodi abilitati per GPU ai cluster esistenti, utilizzare il comando tanzu cluster node-pool set.

Prerequisiti

Procedura

Per creare un cluster del carico di lavoro di host abilitati per GPU, eseguire i passaggi seguenti per abilitare il passthrough PCI, creare un'immagine della macchina personalizzata, creare un file di configurazione del cluster e una versione Tanzu Kubernetes, distribuire il cluster del carico di lavoro e installare un operatore GPU tramite Helm.

  1. Aggiungere gli host ESXi con le schede GPU al vSphere Client.

  2. Abilitare il passthrough PCI e registrare gli ID GPU nel modo seguente:

    1. In vSphere Client, selezionare l'host ESXi di destinazione nel cluster GPU.
    2. Selezionare Configura (Configure) > Hardware > Dispositivi PCI (PCI Devices).
    3. Selezionare la scheda Tutti i dispositivi PCI.
    4. Selezionare la GPU di destinazione dall'elenco.
    5. Fare clic su Attiva/disattiva passthrough.
    6. In Informazioni generali (General Information), registrare l'ID dispositivo (Device ID) e l'ID fornitore (Vendor ID), evidenziati in verde nell'immagine seguente. Gli ID sono gli stessi per schede GPU identiche. Saranno necessari per il file di configurazione del cluster.

    Interfaccia di vSphere Client con l'elenco dei dispositivi PCI. Sotto l'elenco, la posizione dell'ID dispositivo e dell'ID fornitore è evidenziata da una casella verde.

  3. Creare un file di configurazione del cluster del carico di lavoro utilizzando il modello in Modello di cluster del carico di lavoro e includere le seguenti variabili:

    ...
    VSPHERE_WORKER_PCI_DEVICES: "0x<VENDOR-ID>:0x<DEVICE-ID>"
    VSPHERE_WORKER_CUSTOM_VMX_KEYS: 'pciPassthru.allowP2P=true,pciPassthru.RelaxACSforP2P=true,pciPassthru.use64bitMMIO=true,pciPassthru.64bitMMIOSizeGB=<GPU-SIZE>'
    VSPHERE_IGNORE_PCI_DEVICES_ALLOW_LIST: "<BOOLEAN>"
    VSPHERE_WORKER_HARDWARE_VERSION: vmx-17
    WORKER_ROLLOUT_STRATEGY: "RollingUpdate"
    

    In cui:

    Nota

    È possibile utilizzare un solo tipo di GPU per macchina virtuale. Ad esempio, non è possibile utilizzare sia NVIDIA V100 sia NVIDIA Tesla T4 in una singola macchina virtuale, ma è possibile utilizzare più istanze di GPU con lo stesso ID fornitore e ID dispositivo.

    La CLI di tanzu non consente l'aggiornamento della specifica WORKER_ROLLOUT_STRATEGY in MachineDeployment. Se l'aggiornamento del cluster si blocca a causa di dispositivi PCI non disponibili, VMware suggerisce di modificare la strategia MachineDeployment utilizzando la CLI di kubectl. La strategia di implementazione è definita in spec.strategy.type.

    Per un elenco completo delle variabili che è possibile configurare per i cluster abilitati per GPU, vedere Cluster abilitati per GPU in Informazioni di riferimento sulle variabili del file di configurazione.

  4. Creare il cluster del carico di lavoro eseguendo quanto segue:

    tanzu cluster create -f CLUSTER-CONFIG-NAME
    

    Dove CLUSTER-CONFIG-NAME è il nome di configurazione del cluster creato nei passaggi precedenti.

  5. Aggiungere il repository Helm NVIDIA:

    helm repo add nvidia https://helm.ngc.nvidia.com/nvidia \
    && helm repo update
    
  6. Installare l'operatore GPU NVIDIA:

    helm install --kubeconfig=./KUBECONFIG  --wait --generate-name -n gpu-operator --create-namespace nvidia/gpu-operator
    

    Dove KUBECONFIG è il nome e posizione del kubeconfig per il cluster del carico di lavoro. Per ulteriori informazioni, vedere Recupero di kubeconfig del cluster del carico di lavoro.

    Per informazioni sui parametri in questo comando, vedere Installazione dell'operatore GPU nella documentazione di NVIDIA.

  7. Assicurarsi che l'operatore GPU NVIDIA sia in esecuzione:

    kubectl --kubeconfig=./KUBECONFIG  get pods -A
    

    L'output è simile a:

    NAMESPACE         NAME                                                              READY   STATUS     RESTARTS   AGE
    gpu-operator      gpu-feature-discovery-szzkr                                       1/1     Running     0         6m18s
    gpu-operator      gpu-operator-1676396573-node-feature-discovery-master-7795vgdnd   1/1     Running     0         7m7s
    gpu-operator      gpu-operator-1676396573-node-feature-discovery-worker-bq6ct       1/1     Running     0         7m7s
    gpu-operator      gpu-operator-84dfbbfd8-jd98f                                      1/1     Running     0         7m7s
    gpu-operator      nvidia-container-toolkit-daemonset-6zncv                          1/1     Running     0         6m18s
    gpu-operator      nvidia-cuda-validator-2rz4m                                       0/1     Completed   0         98s
    gpu-operator      nvidia-dcgm-exporter-vgw7p                                        1/1     Running     0         6m18s
    gpu-operator      nvidia-device-plugin-daemonset-mln6z                              1/1     Running     0         6m18s
    gpu-operator      nvidia-device-plugin-validator-sczdk                              0/1     Completed   0         22s
    gpu-operator      nvidia-driver-daemonset-b7flb                                     1/1     Running     0         6m38s
    gpu-operator      nvidia-operator-validator-2v8zk                                   1/1     Running     0         6m18s
    

Test del cluster GPU

Per testare il cluster abilitato per la GPU, creare un manifest dei pod per l'esempio di cuda-vector-add nella documentazione di Kubernetes e distribuirlo. Il container scaricherà, eseguirà ed eseguirà un calcolo CUDA con la GPU.

  1. Creare un file denominato cuda-vector-add.yaml e aggiungere quanto segue:

    apiVersion: v1
    kind: Pod
    metadata:
     name: cuda-vector-add
    spec:
     restartPolicy: OnFailure
     containers:
       - name: cuda-vector-add
         # https://github.com/kubernetes/kubernetes/blob/v1.7.11/test/images/nvidia-cuda/Dockerfile
         image: "registry.k8s.io/cuda-vector-add:v0.1"
         resources:
           limits:
             nvidia.com/gpu: 1 # requesting 1 GPU
    
  2. Applicare il file:

    kubectl apply -f cuda-vector-add.yaml
    
  3. Eseguire:

    kubectl get po cuda-vector-add
    

    L'output è simile a:

    cuda-vector-add   0/1     Completed   0          91s
    
  4. Eseguire:

    kubectl logs cuda-vector-add
    

    L'output è simile a:

    [Vector addition of 50000 elements]
    Copy input data from the host memory to the CUDA device
    CUDA kernel launch with 196 blocks of 256 threads
    Copy output data from the CUDA device to the host memory
    Test PASSED
    Done
    

Distribuzione di un cluster del carico di lavoro in un sito Edge

Tanzu Kubernetes Grid v1.6+ supporta la distribuzione di cluster del carico di lavoro in host VMware ESXi Edge. È possibile utilizzare questo approccio se si desidera eseguire molti cluster Kubernetes in posizioni diverse tutti gestiti da un cluster di gestione centrale.

Topologia: È possibile eseguire cluster del carico di lavoro Edge in produzione con un singolo nodo del piano di controllo e solo uno o due host. Tuttavia, anche se in questo modo si utilizza meno CPU, memoria e larghezza di banda di rete, non sono disponibili le stesse caratteristiche di resilienza e ripristino dei cluster Tanzu Kubernetes Grid standard per gli ambienti di produzione. Per ulteriori informazioni, vedere Architettura di riferimento della soluzione VMware Tanzu Edge 1.0.

Registro locale: Per ridurre al minimo i ritardi di comunicazione e massimizzare la resilienza, ogni cluster Edge deve disporre del proprio registro di container Harbor locale. Per una panoramica di questa architettura, vedere Registro dei container in Panoramica dell'architettura. Per installare un registro Harbor locale, vedere Distribuzione di un registro Harbor offline in vSphere.

Timeout: Inoltre, quando un cluster del carico di lavoro Edge ha il proprio cluster di gestione remoto in un data center principale, potrebbe essere necessario modificare determinati timeout per dare al cluster di gestione tempo sufficiente per connettersi alle macchine del cluster del carico di lavoro. Per regolare questi timeout, vedere Estensione dei timeout per i cluster Edge per gestire una latenza più elevata, di seguito.

Estensione dei timeout per i cluster Edge per gestire una latenza più elevata

Se il cluster di gestione gestisce in remoto i cluster del carico di lavoro in esecuzione in siti Edge oppure gestisce più di 20 cluster del carico di lavoro, è possibile modificare timeout specifici in modo che Cluster API non blocchi o elimini le macchine che potrebbero essere offline temporaneamente o che impiegano più di 12 minuti per comunicare con il cluster di gestione remoto, in particolare se il provisioning dell'infrastruttura è insufficiente.

Sono disponibili tre impostazioni che è possibile modificare per concedere ai dispositivi Edge ulteriore tempo per comunicare con il loro piano di controllo:

  • MHC_FALSE_STATUS_TIMEOUT: Estendere il valore predefinito 12m impostandolo ad esempio su 40m per impedire al controller MachineHealthCheck di ricreare la macchina se la condizione Ready rimane False per più di 12 minuti. Per ulteriori informazioni sui controlli di integrità delle macchine, vedere Configurazione dei controlli di integrità delle macchine per i cluster Tanzu Kubernetes.

  • NODE_STARTUP_TIMEOUT: Estendere il valore predefinito 20m impostandolo ad esempio su 60m per impedire al controller MachineHealthCheck di bloccare l'ingresso di nuove macchine nel cluster perché il loro avvio ha impiegato più di 20 minuti, che è considerato un comportamento che indica mancanza di integrità.

  • etcd-dial-timeout-duration: Estendere il valore predefinito di 10m predefinito ad esempio a 40s nel manifest capi-kubeadm-control-plane-controller-manager per evitare che i client etcd nel cluster di gestione si interrompano prematuramente durante la scansione dell'integrità di etcd nei cluster del carico di lavoro. Il cluster di gestione utilizza la sua capacità di connettersi a etcd come parametro fondamentale per l'integrità della macchina. Ad esempio:

    1. In un terminale, eseguire:

      kubectl edit  capi-kubeadm-control-plane-controller-manager -n capi-system
      
      
    2. Modificare il valore per --etcd-dial-timeout-duration:

      - args:
           - --leader-elect
           - --metrics-bind-addr=localhost:8080
           - --feature-gates=ClusterTopology=false
           - --etcd-dial-timeout-duration=40s
           command:
           - /manager
           image: projects.registry.vmware.com/tkg/cluster-api/kubeadm-control-plane-controller:v1.0.1_vmware.1
      

Inoltre, prestare attenzione a:

  • capi-kubedm-control-plane-manager: Se si "separa" in qualche modo dai cluster del carico di lavoro, potrebbe essere necessario rimbalzarlo su un nuovo nodo, in modo che possa monitorare correttamente etcd nei cluster del carico di lavoro.

  • Le configurazioni Pinniped in TKG presuppongono che i cluster del carico di lavoro siano connessi al cluster di gestione. In caso di disconnessione, è necessario assicurarsi che i pod del carico di lavoro utilizzino account amministrativi o di servizio per comunicare con il server API nei siti Edge. Altrimenti, la disconnessione dal cluster di gestione interferirà con la possibilità dei siti Edge di eseguire l'autenticazione tramite Pinniped nei server API del carico di lavoro locali.

check-circle-line exclamation-circle-line close-line
Scroll to top icon