Dans VMware Private AI Foundation with NVIDIA, en tant qu'ingénieur DevOps, vous pouvez provisionner un cluster TKG accéléré avec des GPU NVIDIA à partir de VMware Aria Automation à l'aide d'éléments de catalogue en libre-service du cluster Kubernetes d'IA dans Automation Service Broker. Ensuite, vous pouvez déployer des images de conteneur d'IA à partir de NVIDIA NGC sur le cluster.

Conditions préalables

Vérifiez auprès de votre administrateur de cloud que VMware Private AI Foundation with NVIDIA est configuré. Reportez-vous à la section Préparation de VMware Cloud Foundation pour le déploiement de charges de travail Private AI.

Procédure

Que faire ensuite

Exécutez une image de conteneur d'IA. Dans un environnement connecté, utilisez le catalogue NVIDIA NGC. Dans un environnement déconnecté, utilisez le registre Harbor sur le superviseur.

Pour un cluster de grille Kubernetes Grid Tanzu basé sur RAG, déployez une base de données PostgreSQL pgvector dans VMware Data Services Manager et installez l'exemple de pipeline RAG à partir de NVIDIA. Reportez-vous à la section Déployer une charge de travail RAG sur un cluster TKG.