Als Datenwissenschaftler können Sie einen Deep Learning-fähigen Tanzu Kubernetes Grid-Cluster mit einer PostgreSQL-Datenbank vom Typ „pgvector“ bereitstellen, die von VMware Data Services Manager (DSM) über den Automation Service Broker-Self-Service-Katalog verwaltet wird. Sie können eine vorhandene Datenbankinstanz verwenden oder eine neue Instanz erstellen.
Wenn Sie KI-Kubernetes-RAG-Cluster mit DSM im Katalog anfordern, können Sie eine vorhandene Datenbankinstanz verwenden oder eine neue erstellen. Während der Bereitstellung werden sowohl die Deep Learning-VM als auch die Datenbank-VM bereitgestellt, mit der eine Verbindung hergestellt wird. Die Datenbank wird außerhalb der RAG-Bereitstellung zur Verfügung gestellt.
- Wenn Sie sich für Option „Vorhandene Datenbank“ entscheiden, verwenden Sie eine vorab bereitgestellte Datenbank, bei der es sich um eine externe Datenbank oder eine Datenbank handeln kann, die von einer anderen Bereitstellung vom Typ KI-RAG-Workstation mit DSM zur Verfügung gestellt wurde. Während der Bereitstellung wird keine neue Datenbankinstanz zur Verfügung gestellt.
- Wenn keine zu verwendende Datenbank vorhanden ist oder die eigene private Datenbank für einen bestimmten Anwendungsfall verwendet werden soll, wählen Sie die Option „Neue Datenbank“ aus.
Prozedur
- Suchen Sie auf der Seite Katalog in Automation Service Broker nach der Karte KI-Kubernetes-RAG-Cluster mit DSM und klicken Sie auf Anfordern.
- Wählen Sie ein Projekt aus.
- Geben Sie einen Namen und eine Beschreibung für die Bereitstellung ein.
- Wählen Sie die Anzahl der Steuerungsebenenknoten aus.
Einstellung Beispielwert Anzahl der Knoten 1 VM-Klasse best-effort-large Mit der Klassenauswahl werden die innerhalb der virtuellen Maschine verfügbaren Ressourcen definiert.
Für einen Worker-Knoten können Sie 1 oder 2 vGPU pro Worker-Knoten verwenden. Wählen Sie für zwei Worker-Knoten 1 vGPU pro Knoten aus.
- Konfigurieren Sie die Datenbank.
Einstellung Beispielwert Datenbankinstanz Vorhandene Datenbank Verbindungszeichenfolge Geben Sie die DSM-Verbindungszeichenfolge aus der DSM-Bereitstellungsübersicht an. - Installieren Sie Softwareanpassungen.
- Geben Sie den API-Schlüssel für NVIDIA AI Enterprise an.
- Wählen Sie ein NIM-Modellprofil aus.
Im NIM-Modellprofil werden die Modellmodule definiert, die von NIM verwendet werden können, sowie die Kriterien für die Auswahl dieser Engines.
- Geben Sie die Anmeldedaten für den Docker-Hub ein.
- Klicken Sie auf Senden.