Per dare rapidamente ai data scientist l'opportunità di testare i modelli di Deep Learning VM in VMware Private AI Foundation with NVIDIA, in qualità di amministratore del cloud è possibile distribuire Deep Learning VM direttamente in un cluster vSphere utilizzando vSphere Client.
La distribuzione di una macchina virtuale di deep learning con NVIDIA RAG richiede un database vettore. È possibile utilizzare un database PostgreSQL con pgvector in VMware Data Services Manager. Per informazioni sulla distribuzione di tale database e sulla sua integrazione in Deep Learning VM, vedere Distribuzione di Deep Learning VM con un carico di lavoro RAG.
Prerequisiti
Verificare che VMware Private AI Foundation with NVIDIA sia distribuito e configurato. Vedere Preparazione di VMware Cloud Foundation per la distribuzione del carico di lavoro di Private AI.
Procedura
risultati
Il driver guest della vGPU e il carico di lavoro di deep learning specificato vengono installati la prima volta che si avvia la macchina virtuale di deep learning.
È possibile esaminare i registri o aprire l'istanza di JupyterLab fornita con alcune delle immagini. È possibile condividere i dettagli di accesso con i data scientist dell'organizzazione. Vedere Carichi di lavoro di deep learning in VMware Private AI Foundation with NVIDIA.
Operazioni successive
- Connettersi alla macchina virtuale di deep learning tramite SSH e verificare che tutti i componenti siano installati e in esecuzione come previsto.
- Inviare i dettagli di accesso ai data scientist.