In VMware Private AI Foundation with NVIDIA stellen Sie als DevOps-Ingenieur mithilfe der Kubernetes-API einen TKG-Cluster bereit, der NVIDIA-GPUs verwendet. Anschließend können Sie KI-Container-Arbeitslasten aus dem NVIDIA NGC-Katalog bereitstellen.
Sie verwenden kubectl, um den TKG-Cluster in dem vom Cloud-Administrator konfigurierten Namespace bereitzustellen.
Voraussetzungen
Stellen Sie mit dem Cloud-Administrator sicher, dass die folgenden Voraussetzungen für die KI-fähige Infrastruktur erfüllt sind.
- VMware Private AI Foundation with NVIDIA ist konfiguriert. Weitere Informationen finden Sie unter Vorbereiten von VMware Cloud Foundation für die Bereitstellung von Private AI-Arbeitslasten.
- In einer getrennten Umgebung wird eine Inhaltsbibliothek mit Ubuntu-TKr-Images zum vSphere-Namespace für KI-Arbeitslasten hinzugefügt. Weitere Informationen finden Sie unter Konfigurieren einer Inhaltsbibliothek mit Ubuntu TKr für eine getrennte VMware Private AI Foundation with NVIDIA-Umgebung.