Dans VMware Private AI Foundation with NVIDIA, en tant qu'ingénieur DevOps, provisionnez un cluster TKG qui utilise des GPU NVIDIA à l'aide de l'API Kubernetes. Ensuite, vous pouvez déployer des charges de travail d'IA de conteneur à partir du catalogue NVIDIA NGC.
Utilisez kubectl pour déployer le cluster TKG sur l'espace de noms configuré par l'administrateur de cloud.
Conditions préalables
Vérifiez auprès de l'administrateur de cloud que les conditions préalables suivantes sont en place pour l'infrastructure prête pour l'IA.
- VMware Private AI Foundation with NVIDIA est déployé et configuré. Reportez-vous à la section Déploiement de VMware Private AI Foundation with NVIDIA.
- Dans un environnement déconnecté, une bibliothèque de contenu avec des images Ubuntu TKr est ajoutée à l'espace de noms vSphere pour les charges de travail d'IA. Reportez-vous à la section Configurer une bibliothèque de contenu avec Ubuntu TKr pour un environnement VMware Private AI Foundation with NVIDIA déconnecté.