Se si intende fornire ai tecnici DevOps il supporto per l'utilizzo dello strumento della riga di comando kubectl per distribuire Deep Learning VM o un cluster TKG con accelerazione GPU in un supervisore, creare e configurare uno spazio dei nomi vSphere.

VMware Aria Automation crea uno spazio dei nomi ogni volta che viene eseguito il provisioning di Deep Learning VM, aggiungendo automaticamente la libreria di contenuti in tale spazio dei nomi.

Nota: Questa documentazione si basa su VMware Cloud Foundation 5.2.1. Per informazioni sulla funzionalità VMware Private AI Foundation with NVIDIA in VMware Cloud Foundation 5.2, vedere Guida di VMware Private AI Foundation with NVIDIA per VMware Cloud Foundation 5.2.

Prerequisiti

Procedura

  1. Per un'istanza di VMware Cloud Foundation 5.2.1, accedere all'istanza di vCenter Server per il dominio del carico di lavoro VI all'indirizzo https://<vcenter_server_fqdn>/ui come [email protected].
  2. Nel pannello laterale di vSphere Client, fare clic su Gestione carico di lavoro.
  3. Nella pagina Gestione carico di lavoro creare lo spazio dei nomi vSphere, aggiungere limiti di risorse, criteri di storage, nonché autorizzazioni per i tecnici DevOps e associare le classi di macchine virtuali basate su vGPU a tale spazio dei nomi.
  4. Aggiungere la libreria di contenuti per Deep Learning con immagini di Deep Learning VM allo spazio dei nomi vSphere per i carichi di lavoro di AI.
    1. Nello spazio dei nomi per i carichi di lavoro di AI, nella scheda Servizio macchina virtuale dello spazio dei nomi, fare clic su Gestisci librerie di contenuti.
    2. Selezionare la libreria di contenuti con le immagini di Deep Learning VM e fare clic su OK.