Dans VMware Private AI Foundation with NVIDIA, en tant qu'ingénieur DevOps, provisionnez un cluster TKG qui utilise des GPU NVIDIA à l'aide de l'API Kubernetes. Ensuite, vous pouvez déployer des charges de travail d'IA de conteneur à partir du catalogue NVIDIA NGC.

Utilisez kubectl pour déployer le cluster TKG sur l'espace de noms configuré par l'administrateur de cloud.

Conditions préalables

Vérifiez auprès de l'administrateur de cloud que les conditions préalables suivantes sont en place pour l'infrastructure prête pour l'IA.

Procédure

  1. Connectez-vous au plan de contrôle du superviseur.
    kubectl vsphere login --server=SUPERVISOR-CONTROL-PLANE-IP-ADDRESS-or-FQDN --vsphere-username USERNAME
  2. Provisionnez un cluster TKG et installez l'opérateur NVIDIA GPU et l'opérateur réseau NVIDIA sur celui-ci.

Que faire ensuite

Déployez une image de conteneur d'IA à partir du catalogue NVIDIA NGC.