Vous pouvez déployer des charges de travail d'intelligence artificielle et d'apprentissage automatique sur des clusters provisionnés par Tanzu Kubernetes Grid. Le déploiement de charges de travail d'intelligence artificielle et d'apprentissage automatique nécessite que les fournisseurs de services effectuent une configuration initiale et que les administrateurs d'organisation et les utilisateurs locataires réalisent quelques opérations de configuration au cours du workflow de création du cluster.

Pour préparer l'environnement VMware Cloud Director afin de provisionner des clusters pouvant gérer des charges de travail d'intelligence artificielle et d'apprentissage automatique, les fournisseurs de services doivent créer une stratégie vGPU et l'ajouter à un VDC d'organisation. Pour obtenir des instructions sur l'exécution de ces tâches, reportez-vous à la section Création et gestion de stratégies vGPU. Une fois que les fournisseurs de services ont effectué ces étapes, les utilisateurs locataires peuvent déployer des charges de travail d'intelligence artificielle et d'apprentissage automatique sur leurs clusters Tanzu Kubernetes Grid. Pour créer des clusters Tanzu Kubernetes Grid avec les fonctionnalités vGPU, reportez-vous à la section Créer un cluster Tanzu Kubernetes Grid.

Note : La prise en charge de vGPU s'applique uniquement à Tanzu Kubernetes Grid 1.5.

Limitations du microprogramme BIOS

Les modèles VMware Cloud Director Container Service Extension Tanzu Kubernetes Grid sont créés avec un microprogramme BIOS et il n'est pas possible de modifier cette configuration de microprogramme. La mémoire BAR1 sur ce microprogramme ne peut pas dépasser 256 Mo. Les cartes NVIDIA Grid disposant de plus de 256 Mo de mémoire BAR1 nécessitent un microprogramme EFI. Pour plus d'informations sur les limitations du microprogramme, reportez-vous à VMware vSphere : Documentation du logiciel de GPU virtuel NVIDIA.

Créer une image personnalisée avec un microprogramme EFI

Pour contourner les limitations du microprogramme BIOS des modèles Tanzu Kubernetes Grid, vous pouvez créer une image personnalisée avec un microprogramme EFI dans vSphere. Pour obtenir des instructions, reportez-vous à Images de machines Linux personnalisées avec Tanzu Kubernetes Grid 1.5.

Pour créer des Images de machines Linux personnalisées avec Tanzu Kubernetes Grid 1.5 sur un modèle de GPU, vous devez également inclure les entrées suivantes lorsque vous créez l'image personnalisée :
Entrées Description
customizations.json Pour créer une image pour un cluster avec vGPU activé pour vSphere, créez un fichier nommé customizations.json et ajoutez les éléments suivants :
{
"vmx_version": "17"
}
metadata.json VERSION doit correspondre exactement à une version établie d'un modèle Tanzu Kubernetes Grid, car le plug-in d'interface utilisateur de Kubernetes Container Clusters ne reconnaît pas le fichier OVA si le numéro de version diffère de celui du modèle.
L'exemple suivant présente la convention d'attribution de nom de fichier recommandée :
Modèle et version Métadonnées
Modèle Kubernetes pour TKG 1.5.4 ubuntu-2004-kube-v1.22.9+vmware.1-tkg.1-2182cbabee08edf480ee9bc5866d6933.ova
Version
v1.22.9+vmware.1-tkg.1-2182cbabee08edf480ee9bc5866d6933
build-node-ova-vsphere-ubuntu-2004-efi Utilisez cette commande pour exécuter le générateur d'image pour les clusters avec vGPU activé. Cette commande spécifie la création de l'image personnalisée avec le microprogramme EFI.
Les fournisseurs de services doivent configurer un nouveau catalogue dans VMware Cloud Director pour les modèles vGPU et charger les modèles dans ce catalogue. Lorsqu'un utilisateur souhaite créer un cluster avec vGPU activé, il peut sélectionner ce modèle au cours du processus de création du cluster et exploiter les vGPU dans ce cluster. Pour plus d'informations, reportez-vous à la section Créer des catalogues et charger des fichiers OVA.