Si vous prévoyez de prendre en charge les ingénieurs DevOps à l'aide de l'outil de ligne de commande kubectl pour déployer une VM à apprentissage profond ou un cluster TKG accéléré par GPU sur un superviseur, créez et configurez un espace de noms vSphere.

VMware Aria Automation crée un espace de noms lors du provisionnement d'une VM à apprentissage profond, en y ajoutant automatiquement la bibliothèque de contenu.

Note : Cette documentation est basée sur VMware Cloud Foundation 5.2.1. Pour plus d'informations sur la fonctionnalité VMware Private AI Foundation with NVIDIA dans VMware Cloud Foundation 5.2, consultez le Guide de VMware Private AI Foundation with NVIDIA pour VMware Cloud Foundation 5.2.

Conditions préalables

Procédure

  1. Pour une instance de VMware Cloud Foundation 5.2.1, connectez-vous à l'instance de vCenter Server du domaine de charge de travail VI à l'adresse https://<vcenter_server_fqdn>/ui en tant qu'[email protected].
  2. Dans le panneau latéral vSphere Client, cliquez sur Gestion de la charge de travail.
  3. Sur la page Gestion de la charge de travail, créez l'espace de noms vSphere et ajoutez des limites de ressources, une stratégie de stockage et des autorisations pour les ingénieurs DevOps, puis associez-y les classes de VM basées sur vGPU.
  4. Ajoutez la bibliothèque de contenu pour l'apprentissage profond avec des images de VM à l'espace de noms vSphere pour les charges de travail d'IA.
    1. Dans l'espace de noms des charges de travail d'IA, sur la carte Service de VM de l'espace de noms, cliquez sur Gérer les bibliothèques de contenu.
    2. Sélectionnez la bibliothèque de contenu avec les images de VM à apprentissage profond, puis cliquez sur OK.