Vous pouvez déployer des charges de travail AI/ML sur des clusters TKG 2 sur le Superviseur à l'aide de la technologie vGPU NVIDIA. Le déploiement de charges de travail AI/ML nécessite une configuration initiale par l'administrateur vSphere et une configuration par l'opérateur de cluster. Une fois que l'environnement est activé pour vGPU, les développeurs peuvent déployer des charges de travail AI/ML basées sur un conteneur sur leurs clusters TKG.