En tant qu'ingénieur DevOps, vous pouvez déployer des charges de travail d'IA de conteneur sur des clusters Tanzu Kubernetes Grid (TKG) dont les nœuds worker sont accélérés avec des GPU NVIDIA.

Pour plus d'informations sur la prise en charge de charges de travail d'IA sur les clusters TKG, reportez-vous à la section Déploiement de charges de travail d'IA/ML sur des clusters TKGS.

Note : Cette documentation est basée sur VMware Cloud Foundation 5.2.1. Pour plus d'informations sur la fonctionnalité VMware Private AI Foundation with NVIDIA dans VMware Cloud Foundation 5.2, consultez le Guide de VMware Private AI Foundation with NVIDIA pour VMware Cloud Foundation 5.2.