En tant que scientifique des données ou ingénieur DevOps, vous pouvez déployer une VM à apprentissage profond à partir de Automation Service Broker en utilisant l'élément de catalogue en libre-service de la station de travail d'IA.

Lorsque vous demandez une VM à apprentissage profond dans le catalogue d' Automation Service Broker, provisionnez une VM à apprentissage profond avec GPU activé qui peut être configurée avec les conteneurs de vCPU, vGPU, mémoire et NGC AI/ML souhaités à partir de NVIDIA. Le pilote invité vGPU et la charge de travail d'apprentissage profond spécifiée sont installés lorsque vous démarrez la VM à apprentissage profond pour la première fois.

Pour une VM à apprentissage profond avec une charge de travail NVIDIA RAG, utilisez l'élément de catalogue Station de travail RAG d'IA. Reportez-vous à la section Déployer une VM à apprentissage profond avec une charge de travail RAG à l'aide d'un élément Catalogue en libre-service dans VMware Aria Automation.

Conditions préalables

  • Vérifiez que votre administrateur de cloud a configuré Private AI Automation Services pour votre projet.
  • Vérifiez que vous êtes autorisé à demander des éléments de catalogue d'IA.

Déployer une VM à apprentissage profond à l'aide d'un élément Catalogue en libre-service dans VMware Aria Automation

En tant que scientifique des données, vous pouvez déployer un environnement de développement défini par logiciel à GPU unique à partir du catalogue d'Automation Service Broker en libre-service.

Vous pouvez personnaliser la machine virtuelle avec GPU activé avec les paramètres de la machine pour modéliser les exigences de développement, préinstaller les infrastructures AI/ML pour répondre aux exigences de formation et d'inférence et spécifier les modules AI/ML à partir du registre NVIDIA NGC via une clé d'accès au portail.

Procédure

  1. Sur la page Catalogue dans Automation Service Broker, recherchez la carte Station de travail d'IA et cliquez sur Demander.
  2. Sélectionnez un projet.
  3. Entrez un nom et une description pour le déploiement.
  4. Configurez les paramètres de la station de travail d'IA.
    Paramètre Exemple de valeur
    Classe de VM A100 petit - 1 vGPU (16 Go), 8 CPU et 16 Go de mémoire
    Taille du disque de données 32 Go
    Mot de passe utilisateur Entrez un mot de passe pour l'utilisateur par défaut. Vous pouvez être invité à réinitialiser votre mot de passe lorsque vous vous connectez pour la première fois.
    Clé publique SSH Ce paramètre est facultatif.
  5. Sélectionnez un bundle de logiciels à installer sur votre station de travail.
    Les charges de travail à apprentissage profond prises en charge incluent PyTorch, TensorFlow et des exemples CUDA. Pour plus d'informations, reportez-vous à la section Charges de travail d'apprentissage profond dans VMware Private AI Foundation with NVIDIA.
  6. (Facultatif) Entrez un script cloud-init personnalisé que vous souhaitez installer en plus du script cloud-init défini pour le bundle de logiciels.
    VMware Aria Automation combine le script cloud-init du bundle de logiciels et le script cloud-init personnalisé.
  7. Fournissez votre clé API NVIDIA NGC.
  8. (Facultatif) Exposez les mesures de NVIDIA Data Center GPU Manager (DCGM) via un équilibrage de charge.
    NVIDIA DCGM gère et surveille les GPU dans les environnements du centre de données.
  9. (Facultatif) Si vous installez le bundle de logiciels PyTorch ou TensorFlow NGC, activez l'authentification JupyterLab.
  10. Cliquez sur Envoyer.

Résultats

L'onglet Présentation du déploiement contient un résumé du logiciel qui a été installé, ainsi que des instructions sur l'accès à l'application, aux services et à la VM à apprentissage profond.

Déployer une VM à apprentissage profond avec le serveur d'inférence Triton NVIDIA à l'aide d'un élément Catalogue en libre-service dans VMware Aria Automation

En tant que scientifique des données, vous pouvez déployer un apprentissage profond avec GPU activé avec le serveur d'inférence Triton NVIDIA à partir du catalogue de Automation Service Broker en libre-service.

La station de travail déployée inclut Ubuntu 22.04, un pilote NVIDIA vGPU, le moteur Docker, NVIDIA Container Toolkit et le serveur d'inférence Triton NVIDIA.

Procédure

  1. Sur la page Catalogue dans Automation Service Broker, recherchez la carte Serveur d'inférence Triton et cliquez sur Demander.
  2. Sélectionnez un projet.
  3. Entrez un nom et une description pour le déploiement.
  4. Configurez les paramètres de la station de travail d'IA.
    Paramètre Exemple de valeur
    Classe de VM A100 petit - 1 vGPU (16 Go), 8 CPU et 16 Go de mémoire

    Les classes de VM avec prise en charge de la mémoire virtuelle unifiée (UVM, Unified Virtual Memory) sont requises pour exécuter le serveur d'inférence Triton.

    Taille du disque de données 32 Go
    Mot de passe utilisateur Entrez un mot de passe pour l'utilisateur par défaut. Vous pouvez être invité à réinitialiser votre mot de passe lorsque vous vous connectez pour la première fois.
    Clé publique SSH Ce paramètre est facultatif.
  5. (Facultatif) Entrez un script cloud-init personnalisé que vous souhaitez installer en plus du script cloud-init défini pour le bundle de logiciels.
    VMware Aria Automation combine le script cloud-init du bundle de logiciels et le script cloud-init personnalisé.
  6. (Facultatif) Exposez les mesures de NVIDIA Data Center GPU Manager (DCGM) via un équilibrage de charge.
    NVIDIA DCGM gère et surveille les GPU dans les environnements du centre de données.
  7. Cliquez sur Envoyer.