Les scientifiques des données, les ingénieurs et développeurs DevOps peuvent utiliser VMware Aria Automation pour provisionner des machines virtuelles à apprentissage profond sur l'instance de superviseur dans un domaine de charge de travail VI.

Le workflow de déploiement d'une VM à apprentissage profond comporte deux parties :

  • En tant qu'administrateur de cloud, ajoutez des éléments de catalogue en libre-service à Automation Service Broker pour Private AI.
  • En tant que scientifique des données ou ingénieur DevOps, utilisez un élément du catalogue de poste de travail d'IA pour déployer une VM à apprentissage profond sur un nouvel espace de noms du superviseur.

Créer des éléments de catalogue en libre-service d'IA dans VMware Aria Automation

En tant qu'administrateur de cloud, vous pouvez utiliser l'assistant de configuration de catalogue pour Private AI dans VMware Aria Automation afin d'ajouter rapidement des éléments de catalogue pour le déploiement de machines virtuelles à apprentissage profond ou de clusters TKG accélérés par GPU dans un domaine de charge de travail VI.

Les scientifiques de données peuvent utiliser des éléments de catalogue d'apprentissage profond pour le déploiement de VM à apprentissage profond. Les ingénieurs DevOps peuvent utiliser les éléments du catalogue pour le provisionnement de clusters TKG prêts pour l'IA. Lorsque vous l'exécutez, l'assistant de configuration de catalogue pour Private AI ajoute deux éléments de catalogue au catalogue Service Broker : un pour une machine virtuelle à apprentissage profond et un autre pour un cluster TKG.

Lorsque vous l'exécutez, l'assistant de configuration de catalogue pour Private AI ajoute deux éléments de catalogue au catalogue Service Broker : un pour une machine virtuelle à apprentissage profond et un autre pour un cluster TKG. Vous pouvez exécuter l'assistant dans les cas suivants :

  • Activation du provisionnement de charges de travail d'IA sur un autre superviseur.
  • Intégration d'une modification de votre licence NVIDIA AI Enterprise, y compris le fichier .tok de la configuration client et le dispositif License Server, ou l'URL de téléchargement des pilotes invités vGPU pour un environnement déconnecté.
  • Intégration d'une modification d'image de VM à apprentissage profond.
  • Utilisation d'autres classes de VM vGPU ou sans GPU, d'une stratégie de stockage ou d'un registre de conteneur.
  • Création d'éléments de catalogue dans un nouveau projet.

Conditions préalables

Procédure

  1. Accédez à la page d'accueil de VMware Aria Automation et cliquez sur Démarrage rapide.
  2. Exécutez l'assistant de configuration de catalogue Private AI Automation Services pour Private AI Automation.

    Reportez-vous à Ajouter des éléments Private AI au catalogue Automation Service Broker dans la documentation du produit VMware Aria Automation.

Déployer une VM à apprentissage profond à l'aide d'un catalogue en libre-service dans VMware Aria Automation

Dans VMware Private AI Foundation with NVIDIA, en tant que scientifique des données ou ingénieur DevOps, vous pouvez déployer une VM à apprentissage profond à partir de VMware Aria Automation en utilisant des éléments de catalogue de poste de travail en libre-service d'IA dans Automation Service Broker.

Note : VMware Aria Automation crée un espace de noms lorsque que vous provisionnez une VM à apprentissage profond.

Procédure

  • Dans Automation Service Broker, déployez un élément de catalogue de poste de travail d'IA sur l'instance de superviseur dans le domaine de charge de travail VI.
    Reportez-vous à la section Déployer une machine virtuelle à apprentissage profond sur un domaine de charge de travail VI.
    Si vous prévoyez d'utiliser l'exportateur DCGM avec une charge de travail DL qui utilise la capacité de GPU, vous pouvez installer la charge de travail DL au démarrage de la machine virtuelle dans le cadre du processus cloud-init ou à partir de la ligne de commande après le démarrage de la machine virtuelle. Pour inclure la charge de travail DL dans le processus cloud-init, ajoutez la configuration suivante en plus des autres détails pour le provisionnement de la VM à apprentissage profond dans le formulaire de demande de l'élément de catalogue du poste de travail d'IA :
    1. Dans le menu déroulant Bundle de logiciels, sélectionnez Exportateur DCGM.
    2. Cochez la case cloud-init personnalisé et entrez les instructions d'exécution de la charge de travail DL.

Résultats

Le pilote invité vGPU et la charge de travail d'apprentissage profond spécifiée sont installés lorsque vous démarrez la VM à apprentissage profond.

Vous pouvez examiner les journaux ou ouvrir l'instance de JupyterLab fournie avec certaines images. Reportez-vous à la section Charges de travail d'apprentissage profond dans VMware Private AI Foundation with NVIDIA.

Que faire ensuite

Pour plus d'informations sur l'accès à la machine virtuelle et à l'instance de JupyterLab sur celle-ci, accédez à Consommer > Déploiements > Déploiements dans Automation Service Broker.