In VMware Private AI Foundation with NVIDIA in qualità di tecnico DevOps, utilizzando l'API Kubernetes, eseguire il provisioning di un cluster TKG che utilizza GPU NVIDIA. In un ambiente disconnesso, è necessario configurare anche un repository di pacchetti Ubuntu locale e utilizzare il registro Harbor per il supervisore.
Prerequisiti
Verificare con l'amministratore del cloud che siano soddisfatti i prerequisiti seguenti per l'infrastruttura pronta per AI.
- VMware Private AI Foundation with NVIDIA deve essere distribuito e configurato. Vedere Distribuzione di VMware Private AI Foundation with NVIDIA.
- Una libreria di contenuti con immagini TKr Ubuntu deve essere aggiunta allo spazio dei nomi per i carichi di lavoro AI. Vedere Configurazione di una libreria di contenuti con TKr Ubuntu per un ambiente di VMware Private AI Foundation with NVIDIA disconnesso.
- Una macchina che ha accesso all'endpoint supervisore.
Procedura
- Eseguire il provisioning di un cluster TKG nello spazio dei nomi vSphere configurato dall'amministratore del cloud.
- Completare la configurazione del cluster TKG.
Vedere Installazione di VMware vSphere with VMware Tanzu (air gap).
- Fornire un repository di pacchetti Ubuntu locale e caricare le immagini del container nel pacchetto di NVIDIA GPU Operator nel registro Harbor per il supervisore.
- Aggiornare le definizioni del grafico Helm di NVIDIA GPU Operator per utilizzare il repository dei pacchetti Ubuntu locale e il registro Harbor privato.
- Fornire le informazioni relative alla licenza di NVIDIA.
- Installare NVIDIA GPU Operator.
Passaggi successivi
Distribuire un'immagine del container AI dal registro Harbor per il supervisore.