In VMware Private AI Foundation with NVIDIA in qualità di tecnico DevOps, utilizzando l'API Kubernetes, eseguire il provisioning di un cluster TKG che utilizza GPU NVIDIA. È quindi possibile distribuire carichi di lavoro AI dei container dal catalogo NVIDIA NGC.
Utilizzare kubectl per distribuire il cluster TKG nello spazio dei nomi configurato dall'amministratore del cloud.
Prerequisiti
Verificare con l'amministratore del cloud che siano soddisfatti i prerequisiti seguenti per l'infrastruttura pronta per AI.
- VMware Private AI Foundation with NVIDIA è configurato. Vedere Preparazione di VMware Cloud Foundation per la distribuzione del carico di lavoro di Private AI.
- In un ambiente disconnesso, una libreria di contenuti con immagini TKr Ubuntu deve essere aggiunta allo spazio dei nomi vSphere per i carichi di lavoro AI. Vedere Configurazione di una libreria di contenuti con TKr Ubuntu per un ambiente di VMware Private AI Foundation with NVIDIA disconnesso.