Dans VMware Private AI Foundation with NVIDIA, en tant qu'ingénieur DevOps, provisionnez un cluster TKG qui utilise des GPU NVIDIA à l'aide de l'API Kubernetes. Dans un environnement déconnecté, vous devez également configurer un référentiel de modules Ubuntu local et utiliser le registre Harbor pour le superviseur.
Conditions préalables
Vérifiez auprès de l'administrateur de cloud que les conditions préalables suivantes sont en place pour l'infrastructure prête pour l'IA.
- VMware Private AI Foundation with NVIDIA est déployé et configuré. Reportez-vous à la section Déploiement de VMware Private AI Foundation with NVIDIA.
- Une bibliothèque de contenu avec des images Ubuntu TKr est ajoutée à l'espace de noms pour les charges de travail d'IA. Reportez-vous à la section Configurer une bibliothèque de contenu avec Ubuntu TKr pour un environnement VMware Private AI Foundation with NVIDIA déconnecté.
- Machine ayant accès au point de terminaison du superviseur.
Procédure
- Provisionnez un cluster TKG sur l'espace de noms vSphere configuré par l'administrateur de cloud.
Reportez-vous à la section Provisionner un cluster TKGS pour NVIDIA vGPU.
- Effectuez la configuration du cluster TKG.
Reportez-vous à la section Installation de VMware vSphere with VMware Tanzu (isolé).
- Fournissez un référentiel de modules Ubuntu local et chargez les images de conteneur du module opérateur NVIDIA GPU dans le registre Harbor pour le superviseur.
- Mettez à jour les définitions des graphiques Helm de l'opérateur NVIDIA GPU pour utiliser le référentiel de modules Ubuntu local et le registre Harbor privé.
- Fournissez les informations de licence NVIDIA.
- Installez l'opérateur NVIDIA GPU.
Étapes suivantes
Déployez une image de conteneur AI à partir du registre Harbor pour le superviseur.