En tant qu'ingénieur DevOps, vous pouvez déployer des charges de travail d'IA de conteneur sur des clusters Tanzu Kubernetes Grid (TKG) dont les nœuds worker sont accélérés avec des GPU NVIDIA.
Pour plus d'informations sur la prise en charge de charges de travail d'IA sur les clusters TKG, reportez-vous à la section Déploiement de charges de travail d'IA/ML sur des clusters TKGS.
Note : Cette documentation est basée sur
VMware Cloud Foundation 5.2.1. Pour plus d'informations sur la fonctionnalité
VMware Private AI Foundation with NVIDIA dans
VMware Cloud Foundation 5.2, consultez le
Guide de VMware Private AI Foundation with NVIDIA pour VMware Cloud Foundation 5.2.