Data scientist, tecnici DevOps e sviluppatori possono utilizzare VMware Aria Automation per eseguire il provisioning di macchine virtuali di deep learning nell'istanza del supervisore in un dominio del carico di lavoro VI.
Il workflow per la distribuzione di una macchina virtuale di deep learning è suddiviso in due parti:
- In qualità di amministratore del cloud, aggiungere elementi catalogo self-service per Private AI in Automation Service Broker.
- In qualità di data scientist o tecnico DevOps, utilizzare un elemento catalogo della workstation AI per distribuire una macchina virtuale di deep learning in un nuovo spazio dei nomi nel supervisore.
Creazione di elementi catalogo self-service AI in VMware Aria Automation
In qualità di amministratore del cloud, è possibile utilizzare la procedura guidata di configurazione del catalogo per Private AI in VMware Aria Automation per aggiungere rapidamente elementi catalogo per la distribuzione di macchine virtuali di deep learning o cluster TKG con accelerazione GPU in un dominio del carico di lavoro VI.
I data scientist possono utilizzare gli elementi catalogo di deep learning per la distribuzione delle macchine virtuali di deep learning. I tecnici DevOps possono utilizzare gli elementi catalogo per il provisioning di cluster TKG pronti per AI. Ogni volta che la si esegue, la procedura guidata di configurazione del catalogo per Private AI aggiunge due elementi catalogo al catalogo di Service Broker, uno per una macchina virtuale di deep learning e uno per un cluster TKG.
Ogni volta che la si esegue, la procedura guidata di configurazione del catalogo per Private AI aggiunge due elementi catalogo al catalogo di Service Broker, uno per una macchina virtuale di deep learning e uno per un cluster TKG. È possibile eseguire la procedura guidata ogni volta che è necessario:
- Abilitare il provisioning dei carichi di lavoro AI in un altro supervisore.
- Apportare una modifica alla licenza NVIDIA AI Enterprise, che include il file .tok per la configurazione del client e il server delle licenze o l'URL di download per i driver guest della vGPU per un ambiente disconnesso.
- Apportare una modifica all'immagine di una macchina virtuale di deep learning.
- Utilizzare altre classi di macchine virtuali vGPU o non GPU, un criterio di storage o un registro di container.
- Creare elementi catalogo in un nuovo progetto.
Prerequisiti
- Verificare che VMware Private AI Foundation with NVIDIA sia disponibile per il dominio del carico di lavoro VI.
- Verificare che siano soddisfatti i prerequisiti per la distribuzione delle macchine virtuali di deep learning.
- Creazione di una libreria di contenuti con immagini di macchine virtuali di deep learning per VMware Private AI Foundation with NVIDIA.
Procedura
Distribuzione di una macchina virtuale di deep learning tramite un catalogo self-service in VMware Aria Automation
In VMware Private AI Foundation with NVIDIA in qualità di data scientist o tecnico DevOps, è possibile distribuire una macchina virtuale di deep learning da VMware Aria Automation utilizzando gli elementi catalogo self-service di una workstation AI in Automation Service Broker.
Procedura
- ♦ In Automation Service Broker, distribuire un elemento catalogo della workstation AI nell'istanza del supervisore nel dominio del carico di lavoro VI.
Vedere Distribuzione di una macchina virtuale di deep learning in un dominio del carico di lavoro VI.Se si intende utilizzare DCGM Exporter con un carico di lavoro DL che utilizza la capacità della GPU, è possibile fare in modo che il carico di lavoro DL venga installato all'avvio della macchina virtuale come parte del processo di cloud-init o dalla riga di comando dopo l'avvio della macchina virtuale. Per includere il carico di lavoro DL nel processo di cloud-init, nel modulo di richiesta dell'elemento catalogo della workstation AI, aggiungere la configurazione seguente oltre agli altri dettagli per il provisioning della macchina virtuale di deep learning:
- Dal menu a discesa Bundle software selezionare DCGM Exporter.
- Selezionare la casella di controllo Cloud-init personalizzato e immettere le istruzioni per l'esecuzione del carico di lavoro DL.
risultati
Il driver guest della vGPU e il carico di lavoro di deep learning specificato vengono installati la prima volta che si avvia la macchina virtuale di deep learning.
È possibile esaminare i registri o aprire l'istanza di JupyterLab fornita con alcune delle immagini. Vedere Carichi di lavoro di deep learning in VMware Private AI Foundation with NVIDIA.
Operazioni successive
Per informazioni dettagliate su come accedere alla macchina virtuale e all'istanza di JupyterLab in tale macchina virtuale, in Automation Service Broker passare a
.