Dans VMware Private AI Foundation with NVIDIA, en tant qu'ingénieur DevOps, provisionnez un cluster TKG qui utilise des GPU NVIDIA à l'aide de l'API Kubernetes. Ensuite, vous pouvez déployer des charges de travail d'IA de conteneur à partir du catalogue NVIDIA NGC.
Utilisez kubectl pour déployer le cluster TKG sur l'espace de noms configuré par l'administrateur de cloud.
Conditions préalables
Vérifiez auprès de l'administrateur de cloud que les conditions préalables suivantes sont en place pour l'infrastructure prête pour l'IA.
- VMware Private AI Foundation with NVIDIA est configuré. Reportez-vous à la section Préparation de VMware Cloud Foundation pour le déploiement de charges de travail Private AI.
- Dans un environnement déconnecté, une bibliothèque de contenu avec des images Ubuntu TKr est ajoutée à l'espace de noms vSphere pour les charges de travail d'IA. Reportez-vous à la section Configurer une bibliothèque de contenu avec Ubuntu TKr pour un environnement VMware Private AI Foundation with NVIDIA déconnecté.