Vous pouvez déployer des charges de travail AI/ML sur des clusters Service TKG à l'aide de NVIDIA vGPU. Le déploiement de charges de travail AI/ML nécessite une configuration initiale par l'administrateur vSphere et une configuration par l'opérateur de cluster. Une fois que l'environnement est activé pour vGPU, les développeurs peuvent déployer des charges de travail AI/ML basées sur un conteneur sur leurs clusters Service TKG.