Sie können KI-/ML-Arbeitslasten auf Tanzu Kubernetes-Clustern bereitstellen, die vom Tanzu Kubernetes Grid-Dienst zur Verfügung gestellt werden. Für die Bereitstellung von KI-/ML-Arbeitslasten muss eine Ersteinrichtung durch den vSphere-Administrator und eine bestimmte Konfiguration durch den Cluster-Operator erfolgen. Wenn die vSphere with Tanzu-Umgebung vGPU-fähig ist, können Entwickler KI-/ML-Arbeitslasten in ihren TKGS-Clustern genauso bereitstellen wie jede Kubernetes-Arbeitslast.