Dans VMware Private AI Foundation with NVIDIA, en tant qu'ingénieur DevOps, provisionnez un cluster TKG qui utilise des GPU NVIDIA à l'aide de l'API Kubernetes. Dans un environnement déconnecté, vous devez également configurer un référentiel de modules Ubuntu local et utiliser le registre Harbor pour le superviseur.

Conditions préalables

Vérifiez auprès de l'administrateur de cloud que les conditions préalables suivantes sont en place pour l'infrastructure prête pour l'IA.

Procédure

  1. Provisionnez un cluster TKG sur l'espace de noms vSphere configuré par l'administrateur de cloud.

    Reportez-vous à la section Provisionner un cluster TKGS pour NVIDIA vGPU.

  2. Installez l'opérateur NVIDIA GPU.
    helm install --wait gpu-operator ./gpu-operator-4-1 -n gpu-operator
  3. Surveillez l'opération.
    watch kubectl get pods -n gpu-operator

Étapes suivantes

Déployez une image de conteneur d'IA à partir du registre Harbor vers le superviseur.