In VMware Private AI Foundation with NVIDIA in qualità di tecnico DevOps, utilizzando l'API Kubernetes, eseguire il provisioning di un cluster TKG che utilizza GPU NVIDIA. In un ambiente disconnesso, è necessario configurare anche un repository di pacchetti Ubuntu locale e utilizzare il registro Harbor per il supervisore.

Prerequisiti

Verificare con l'amministratore del cloud che siano soddisfatti i prerequisiti seguenti per l'infrastruttura pronta per AI.

Procedura

  1. Eseguire il provisioning di un cluster TKG nello spazio dei nomi vSphere configurato dall'amministratore del cloud.

    Vedere Provisioning di un cluster TKGS per NVIDIA vGPU.

  2. Completare la configurazione del cluster TKG.

    Vedere Installazione di VMware vSphere with VMware Tanzu (air gap).

    1. Fornire un repository di pacchetti Ubuntu locale e caricare le immagini del container nel pacchetto di NVIDIA GPU Operator nel registro Harbor per il supervisore.
    2. Aggiornare le definizioni del grafico Helm di NVIDIA GPU Operator per utilizzare il repository dei pacchetti Ubuntu locale e il registro Harbor privato.
    3. Fornire le informazioni relative alla licenza di NVIDIA.
    4. Installare NVIDIA GPU Operator.

Passaggi successivi

Distribuire un'immagine del container AI dal registro Harbor per il supervisore.