In VMware Private AI Foundation with NVIDIA stellen Sie als DevOps-Ingenieur mithilfe der Kubernetes-API einen TKG-Cluster bereit, der NVIDIA-GPUs verwendet. In einer nicht verbundenen Umgebung müssen Sie zusätzlich ein lokales Ubuntu-Paket-Repository einrichten und die Harbor-Registrierung für den Supervisor verwenden.

Voraussetzungen

Stellen Sie mit dem Cloud-Administrator sicher, dass die folgenden Voraussetzungen für die KI-fähige Infrastruktur erfüllt sind.

Prozedur

  1. Stellen Sie einen TKG-Cluster auf dem vom Cloud-Administrator konfigurierten vSphere-Namespace bereit.

    Weitere Informationen finden Sie unter Bereitstellen eines TKGS-Clusters für NVIDIA vGPU.

  2. Installieren Sie den NVIDIA GPU-Operator.
    helm install --wait gpu-operator ./gpu-operator-4-1 -n gpu-operator
  3. Überwachen Sie den Vorgang.
    watch kubectl get pods -n gpu-operator

Nächste Schritte

Stellen Sie dem Supervisor ein KI-Container-Image aus der Harbor-Registrierung bereit.