Als DevOps-Ingenieur können Sie KI-Containerarbeitslasten auf Tanzu Kubernetes Grid (TKG)-Clustern bereitstellen, deren Worker-Knoten mit NVIDIA GPUs beschleunigt werden.

Informationen zur Unterstützung von KI-Arbeitslasten auf TKG-Clustern finden Sie unter Informationen zum Bereitstellen von KI-/ML-Arbeitslasten auf TKGS-Clustern.

Hinweis: Diese Dokumentation basiert auf VMware Cloud Foundation 5.2.1. Informationen zur Funktion VMware Private AI Foundation with NVIDIA in VMware Cloud Foundation 5.2 finden Sie im Handbuch zu VMware Private AI Foundation with NVIDIA für VMware Cloud Foundation 5.2.