È possibile distribuire carichi di lavoro AI/ML nei cluster Tanzu Kubernetes con provisioning eseguito dal Servizio Tanzu Kubernetes Grid. La distribuzione dei carichi di lavoro AI/ML richiede una configurazione iniziale da parte dell'amministratore di vSphere e alcune configurazioni da parte dell'operatore del cluster. Una volta che l'ambiente vSphere with Tanzu è abilitato per la vGPU, gli sviluppatori possono distribuire carichi di lavoro AI/ML nei propri cluster TKG come farebbero con qualsiasi carico di lavoro Kubernetes.