Dans VMware Private AI Foundation with NVIDIA, en tant qu'ingénieur DevOps, provisionnez un cluster TKG qui utilise des GPU NVIDIA à l'aide de l'API Kubernetes. Dans un environnement déconnecté, vous devez également configurer un référentiel de modules Ubuntu local et utiliser le registre Harbor pour le superviseur.

Conditions préalables

Vérifiez auprès de l'administrateur de cloud que les conditions préalables suivantes sont en place pour l'infrastructure prête pour l'IA.

Procédure

  1. Provisionnez un cluster TKG sur l'espace de noms vSphere configuré par l'administrateur de cloud.

    Reportez-vous à la section Provisionner un cluster TKGS pour NVIDIA vGPU.

  2. Effectuez la configuration du cluster TKG.

    Reportez-vous à la section Installation de VMware vSphere with VMware Tanzu (isolé).

    1. Fournissez un référentiel de modules Ubuntu local et chargez les images de conteneur du module opérateur NVIDIA GPU dans le registre Harbor pour le superviseur.
    2. Mettez à jour les définitions des graphiques Helm de l'opérateur NVIDIA GPU pour utiliser le référentiel de modules Ubuntu local et le registre Harbor privé.
    3. Fournissez les informations de licence NVIDIA.
    4. Installez l'opérateur NVIDIA GPU.

Étapes suivantes

Déployez une image de conteneur AI à partir du registre Harbor pour le superviseur.