In VMware Private AI Foundation with NVIDIA stellen Sie als DevOps-Ingenieur mithilfe der Kubernetes-API einen TKG-Cluster bereit, der NVIDIA-GPUs verwendet. Anschließend können Sie KI-Container-Arbeitslasten aus dem NVIDIA NGC-Katalog bereitstellen.

Sie verwenden kubectl, um den TKG-Cluster in dem vom Cloud-Administrator konfigurierten Namespace bereitzustellen.

Voraussetzungen

Stellen Sie mit dem Cloud-Administrator sicher, dass die folgenden Voraussetzungen für die KI-fähige Infrastruktur erfüllt sind.

Prozedur

  1. Melden Sie sich bei der Supervisor-Steuerungsebene an.
    kubectl vsphere login --server=SUPERVISOR-CONTROL-PLANE-IP-ADDRESS-or-FQDN --vsphere-username USERNAME
  2. Stellen Sie einen TKG-Cluster bereit und installieren Sie den NVIDIA GPU-Operator und den NVIDIA-Netzwerkoperator darauf.

Nächste Maßnahme

Stellen Sie ein KI-Container-Image aus dem NVIDIA NGC-Katalog bereit.