En tant que solution à composants multiples, vous pouvez utiliser VMware Private AI Foundation with NVIDIA pour exécuter des charges de travail d'IA génératives en utilisant l'informatique accélérée de NVIDIA, ainsi que la gestion de l'infrastructure virtuelle et la gestion du cloud à partir de VMware Cloud Foundation.
VMware Private AI Foundation with NVIDIA fournit une plate-forme pour le provisionnement de charges de travail d'IA sur des hôtes ESXi avec des GPU NVIDIA. En outre, l'exécution de charges de travail d'IA basées sur des conteneurs NVIDIA GPU Cloud (NGC) est spécifiquement validée par VMware.
VMware Private AI Foundation with NVIDIA prend en charge deux cas d'utilisation :
- Cas d'utilisation de développement
- Les administrateurs de cloud et les ingénieurs DevOps peuvent provisionner des charges de travail d'IA, y compris la génération augmentée de récupération (RAG), sous la forme de machines virtuelles à apprentissage profond. Les scientifiques des données peuvent utiliser ces machines virtuelles à apprentissage profond pour le développement de l'IA.
- Cas d'utilisation de production
- Les administrateurs de cloud peuvent fournir aux ingénieurs DevOps un environnement VMware Private AI Foundation with NVIDIA pour le provisionnement de charges de travail d'IA prêtes pour la production sur des clusters Tanzu Kubernetes Grid (TKG) dans vSphere with Tanzu.
Attribution de licence
Vous avez besoin de la licence de module complémentaire VMware Private AI Foundation with NVIDIA pour accéder aux fonctionnalités suivantes :
- La configuration de Private AI dans VMware Aria Automation pour les éléments de catalogue afin de faciliter le provisionnement de machines virtuelles à apprentissage profond accélérées par GPU et de clusters TKG.
- Provisionnement de bases de données PostgreSQL à l'aide de l'extension pgvector avec l'assistance de l'entreprise.
- Déploiement et utilisation de l'image de machine virtuelle à apprentissage profond fournie par VMware by Broadcom.
Vous pouvez déployer des charges de travail d'IA avec et sans superviseur activé, et utiliser les mesures GPU dans vCenter Server et VMware Aria Operations avec la licence VMware Cloud Foundation.
Les composants logiciels NVIDIA peuvent être utilisés avec une licence NVIDIA AI Enterprise.
Présentation des composants VMware Private AI Foundation with NVIDIA
Composant | Description |
---|---|
Hôtes ESXi avec GPU activé | Hôtes ESXi configurés de la manière suivante :
|
Superviseur | Un ou plusieurs clusters vSphere doivent être activés pour vSphere with Tanzu afin que vous puissiez exécuter des machines virtuelles et des conteneurs sur vSphere à l'aide de l'API Kubernetes. Un superviseur est un cluster Kubernetes, servant de plan de contrôle pour gérer les clusters de charge de travail et les machines virtuelles. |
Registre Harbor | Registre d'images local dans un environnement déconnecté dans lequel vous hébergez les images de conteneur téléchargées à partir du catalogue NVIDIA NGC. |
Cluster NSX Edge | Cluster de nœuds NSX Edge qui fournit un routage nord-sud à 2 niveaux pour le superviseur et les charges de travail qu'il exécute. La passerelle de niveau 0 sur le cluster NSX Edge est en mode actif-actif. |
Opérateurs NVIDIA |
|
Base de données vectorielle | Base de données PostgreSQL sur laquelle l'extension pgvector est activée afin que vous puissiez l'utiliser dans les charges de travail d'IA de génération augmentée de récupération (RAG). |
|
Utilisez le portail de licences NVIDIA pour générer un jeton de configuration client afin d'attribuer une licence au pilote vGPU invité dans la machine virtuelle à apprentissage profond et les opérateurs GPU sur les clusters TKG. Dans un environnement déconnecté ou pour que vos charges de travail obtiennent des informations de licence sans utiliser de connexion Internet, hébergez les licences NVIDIA localement sur un dispositif DLS (Delegated License Service). |
Bibliothèque de contenu | Les bibliothèques de contenu stockent les images pour les machines virtuelles à apprentissage profond et pour les versions de Tanzu Kubernetes. Utilisez ces images pour le déploiement de charges de travail d'IA dans l'environnement VMware Private AI Foundation with NVIDIA. Dans un environnement connecté, les bibliothèques de contenu extraient leur contenu des bibliothèques de contenu publiques gérées de VMware. Dans un environnement déconnecté, vous devez charger manuellement les images requises ou les extraire d'un serveur miroir de bibliothèque de contenu interne. |
Catalogue NVIDIA GPU Cloud (NGC) | Portail des conteneurs optimisés pour le GPU de l'IA et de l'apprentissage automatique qui sont testés et prêts à s'exécuter sur des GPU NVIDIA pris en charge sur site au-dessus de VMware Private AI Foundation with NVIDIA. |
En tant qu'administrateur de cloud, utilisez les composants de gestion dans VMware Cloud Foundation
Composant de gestion | Description |
---|---|
SDDC Manager | Utilisez SDDC Manager pour les tâches suivantes :
|
Instance de vCenter Server de domaine de charge de travail VI | Utilisez cette instance de vCenter Server pour activer et configurer un superviseur. |
NSX Manager de domaine de charge de travail VI | SDDC Manager utilise cette instance de NSX Manager pour déployer et mettre à jour des clusters NSX Edge. |
VMware Aria Suite Lifecycle | Utilisez VMware Aria Suite Lifecycle pour déployer et mettre à jour VMware Aria Automation, ainsi que VMware Aria Operations. |
VMware Aria Automation | Utilisez VMware Aria Automation pour ajouter des éléments de catalogue en libre-service pour le déploiement de charges de travail d'IA pour les ingénieurs DevOps et les scientifiques des données. |
VMware Aria Operations | Utilisez VMware Aria Operations pour surveiller la consommation de GPU dans les domaines de charge de travail avec GPU activé. |
VMware Data Services Manager | Utilisez VMware Data Services Manager pour créer des bases de données vectorielles, telles qu'une base de données PostgreSQL avec l'extension pgvector. |