En tant qu'administrateur de cloud, si votre environnement ne dispose pas d'une connectivité Internet, fournissez une bibliothèque de contenu locale dans laquelle vous chargez manuellement les versions de Tanzu Kubernetes (TKr) et l'associez au superviseur.

Le déploiement de charges de travail d'IA prenant en charge NVIDIA sur des clusters TKG nécessite l'utilisation de l'édition Ubuntu des versions de Tanzu Kubernetes.

Attention : La bibliothèque de contenu TKr est utilisée dans tous les espaces de noms vSphere du superviseur lorsque vous provisionnez de nouveaux clusters TKG.

Conditions préalables

En tant qu'administrateur de cloud, vérifiez que VMware Private AI Foundation with NVIDIA est déployé et configuré. Reportez-vous à la section Préparation de VMware Cloud Foundation pour le déploiement de charges de travail Private AI.

Procédure

  1. Téléchargez les images TKr basées sur Ubuntu avec les versions de Kubernetes requises à partir de https://wp-content.vmware.com/v2/latest/.
  2. Connectez-vous à l'instance de vCenter Server pour le domaine de charge de travail VI à l'adresse http://<vcenter_server_fqdn>/ui.
  3. Créez une bibliothèque de contenu locale et importez-y les images TKr.

    Reportez-vous à la section Créer une bibliothèque de contenu locale (pour le provisionnement de cluster isolé).

  4. Ajoutez la bibliothèque de contenu au superviseur.
    1. Sélectionnez Menu > Gestion de la charge de travail.
    2. Accédez au superviseur pour les charges de travail d'IA.
    3. Dans l'onglet Configurer, sélectionnez Général.
    4. En regard de la propriété Tanzu Kubernetes Grid Service, cliquez sur Modifier.
    5. Sur la page Général qui s'affiche, développez Tanzu Kubernetes Grid Service, puis, en regard de Bibliothèque de contenu, cliquez sur Modifier.
    6. Sélectionnez la bibliothèque de contenu avec les images TKr et cliquez sur OK.