Vous pouvez déployer des charges de travail AI/ML sur des clusters Tanzu Kubernetes provisionnés par le Service Tanzu Kubernetes Grid. Le déploiement de charges de travail AI/ML nécessite une configuration initiale par l'administrateur vSphere et une configuration par l'opérateur de cluster. Une fois que l'environnement vSphere with Tanzu est compatible avec vGPU, les développeurs peuvent déployer des charges de travail AI/ML sur leurs clusters TKGS comme ils le feraient pour n'importe quelle charge de travail Kubernetes.