Als DevOps-Ingenieur können Sie KI-Containerarbeitslasten auf Tanzu Kubernetes Grid (TKG)-Clustern bereitstellen, deren Worker-Knoten mit NVIDIA GPUs beschleunigt werden.
Informationen zur Unterstützung von KI-Arbeitslasten auf TKG-Clustern finden Sie unter Informationen zum Bereitstellen von KI-/ML-Arbeitslasten auf TKGS-Clustern.
Hinweis: Diese Dokumentation basiert auf
VMware Cloud Foundation 5.2.1. Informationen zur Funktion
VMware Private AI Foundation with NVIDIA in
VMware Cloud Foundation 5.2 finden Sie im
Handbuch zu VMware Private AI Foundation with NVIDIA für VMware Cloud Foundation 5.2.