Pour permettre aux ingénieurs DevOps et aux scientifiques des données de déployer des machines virtuelles à apprentissage profond ou des clusters TKG avec des charges de travail de conteneur IA, vous devez déployer un superviseur sur un cluster avec GPU activé dans un domaine de charge de travail VI et créer des classes de VM avec vGPU activé.

Note : Cette documentation est basée sur VMware Cloud Foundation 5.2.1. Pour plus d'informations sur la fonctionnalité VMware Private AI Foundation with NVIDIA dans VMware Cloud Foundation 5.2, consultez le Guide de VMware Private AI Foundation with NVIDIA pour VMware Cloud Foundation 5.2.

Conditions préalables

Procédure

  1. Pour une instance de VMware Cloud Foundation 5.2.1, connectez-vous à l'instance de vCenter Server du domaine de gestion à l'adresse https://<vcenter_server_fqdn>/ui en tant qu'[email protected].
  2. Dans le panneau latéral vSphere Client, cliquez sur Private AI Foundation.
  3. Dans le workflow Private AI Foundation, cliquez sur la section Configurer un domaine de charge de travail.
  4. Déployez un cluster NSX Edge dans le domaine de charge de travail VI.
    Reportez-vous à la section Déployer un cluster NSX Edge. L'assistant du workflow de déploiement guidé dispose des mêmes options que l'assistant analogue dans l'interface utilisateur de SDDC Manager.
    SDDC Manager déploie également une passerelle de niveau 0 que vous spécifiez lors du déploiement du superviseur. La passerelle de niveau 0 est en mode de haute disponibilité actif-actif.
  5. Dans le workflow Private AI Foundation, cliquez sur la section Configurer la gestion de la charge de travail.
  6. Configurez une stratégie de stockage pour le superviseur.
    Reportez-vous à la section Créer des stratégies de stockage pour vSphere with Tanzu. L'assistant de création d'une stratégie de stockage de VM dans le workflow de déploiement guidé est le même que l'assistant analogue dans la zone Stratégies et profils de vSphere Client.
  7. Activez la gestion de la charge de travail en déployant un superviseur sur le cluster par défaut d'hôtes ESXi avec GPU activé dans le domaine de charge de travail VI.
    Utilisez l'attribution d'adresses IP statiques pour le réseau de gestion. Attribuez le réseau de gestion de VM du superviseur sur le commutateur vSphere Distributed Switch pour le cluster.

    Configurez le réseau de charge de travail de la manière suivante :

    • Utilisez le commutateur vSphere Distributed Switch pour le cluster ou créez-en un spécifiquement pour les charges de travail d'IA.
    • Configurez le superviseur avec le cluster NSX Edge et la passerelle de niveau 0 que vous avez déployés à l'aide de SDDC Manager.
    • Définissez les valeurs restantes en fonction de votre conception.

    Utilisez la stratégie de stockage que vous avez créée.

    Pour plus d'informations sur le déploiement d'un superviseur sur un cluster unique, reportez-vous aux sections Activer la gestion de la charge de travail et Déployer un superviseur à une zone avec la mise en réseau NSX. L'assistant du workflow de déploiement guidé est le même que l'assistant analogue dans la zone Gestion de la charge de travail de vSphere Client.