Les scientifiques des données, les ingénieurs et développeurs DevOps peuvent utiliser VMware Aria Automation pour provisionner des machines virtuelles à apprentissage profond sur l'instance de superviseur dans un domaine de charge de travail VI.
Le workflow de déploiement d'une VM à apprentissage profond comporte deux parties :
- En tant qu'administrateur de cloud, ajoutez des éléments de catalogue en libre-service à Automation Service Broker pour Private AI.
- En tant que scientifique des données ou ingénieur DevOps, utilisez un élément du catalogue de poste de travail d'IA pour déployer une VM à apprentissage profond sur un nouvel espace de noms du superviseur.
Créer des éléments de catalogue en libre-service d'IA dans VMware Aria Automation
En tant qu'administrateur de cloud, vous pouvez utiliser l'assistant de configuration de catalogue pour Private AI dans VMware Aria Automation afin d'ajouter rapidement des éléments de catalogue pour le déploiement de machines virtuelles à apprentissage profond ou de clusters TKG accélérés par GPU dans un domaine de charge de travail VI.
Les scientifiques de données peuvent utiliser des éléments de catalogue d'apprentissage profond pour le déploiement de VM à apprentissage profond. Les ingénieurs DevOps peuvent utiliser les éléments du catalogue pour le provisionnement de clusters TKG prêts pour l'IA. Lorsque vous l'exécutez, l'assistant de configuration de catalogue pour Private AI ajoute deux éléments de catalogue au catalogue Service Broker : un pour une machine virtuelle à apprentissage profond et un autre pour un cluster TKG.
Lorsque vous l'exécutez, l'assistant de configuration de catalogue pour Private AI ajoute deux éléments de catalogue au catalogue Service Broker : un pour une machine virtuelle à apprentissage profond et un autre pour un cluster TKG. Vous pouvez exécuter l'assistant dans les cas suivants :
- Activation du provisionnement de charges de travail d'IA sur un autre superviseur.
- Intégration d'une modification de votre licence NVIDIA AI Enterprise, y compris le fichier .tok de la configuration client et le dispositif License Server, ou l'URL de téléchargement des pilotes invités vGPU pour un environnement déconnecté.
- Intégration d'une modification d'image de VM à apprentissage profond.
- Utilisation d'autres classes de VM vGPU ou sans GPU, d'une stratégie de stockage ou d'un registre de conteneur.
- Création d'éléments de catalogue dans un nouveau projet.
Conditions préalables
- Vérifiez que VMware Private AI Foundation with NVIDIA est disponible pour le domaine de charge de travail VI.
- Vérifiez que les conditions préalables pour le déploiement de VM à apprentissage profond sont en place.
- Créer une bibliothèque de contenu avec des images de VM à apprentissage profond pour VMware Private AI Foundation with NVIDIA.
Procédure
Déployer une VM à apprentissage profond à l'aide d'un catalogue en libre-service dans VMware Aria Automation
Dans VMware Private AI Foundation with NVIDIA, en tant que scientifique des données ou ingénieur DevOps, vous pouvez déployer une VM à apprentissage profond à partir de VMware Aria Automation en utilisant des éléments de catalogue de poste de travail en libre-service d'IA dans Automation Service Broker.
Procédure
- ♦ Dans Automation Service Broker, déployez un élément de catalogue de poste de travail d'IA sur l'instance de superviseur dans le domaine de charge de travail VI.
Reportez-vous à la section Déployer une machine virtuelle à apprentissage profond sur un domaine de charge de travail VI.Si vous prévoyez d'utiliser l'exportateur DCGM avec une charge de travail DL qui utilise la capacité de GPU, vous pouvez installer la charge de travail DL au démarrage de la machine virtuelle dans le cadre du processus cloud-init ou à partir de la ligne de commande après le démarrage de la machine virtuelle. Pour inclure la charge de travail DL dans le processus cloud-init, ajoutez la configuration suivante en plus des autres détails pour le provisionnement de la VM à apprentissage profond dans le formulaire de demande de l'élément de catalogue du poste de travail d'IA :
- Dans le menu déroulant Bundle de logiciels, sélectionnez Exportateur DCGM.
- Cochez la case cloud-init personnalisé et entrez les instructions d'exécution de la charge de travail DL.
Résultats
Le pilote invité vGPU et la charge de travail d'apprentissage profond spécifiée sont installés lorsque vous démarrez la VM à apprentissage profond.
Vous pouvez examiner les journaux ou ouvrir l'instance de JupyterLab fournie avec certaines images. Reportez-vous à la section Charges de travail d'apprentissage profond dans VMware Private AI Foundation with NVIDIA.
Que faire ensuite
Pour plus d'informations sur l'accès à la machine virtuelle et à l'instance de JupyterLab sur celle-ci, accédez à
dans Automation Service Broker.