Als Datenwissenschaftler oder DevOps-Ingenieur können Sie eine Deep Learning-VM aus Automation Service Broker bereitstellen, indem Sie das Self-Service-Katalogelement der KI-Workstation verwenden.
Verwenden Sie für eine Deep Learning-VM mit einer NVIDIA RAG-Arbeitslast das Katalogelement KI-RAG-Workstation. Weitere Informationen finden Sie unter Bereitstellen einer Deep Learning-VM mit einer RAG-Arbeitslast unter Verwendung eines Self-Service-Katalogelements in VMware Aria Automation.
Voraussetzungen
- Stellen Sie sicher, dass der Cloud-Administrator Private AI Automation Services für das Projekt konfiguriert hat.
- Stellen Sie sicher, dass Sie über die Berechtigungen zum Anfordern von KI-Katalogelementen verfügen.
Bereitstellen einer Deep Learning-VM mithilfe eines Self-Service-Katalogelements in VMware Aria Automation
Als Datenwissenschaftler können Sie eine einzelne softwaredefinierte GPU-Entwicklungsumgebung über den Automation Service Broker-Self-Service-Katalog bereitstellen.
Prozedur
Ergebnisse
Bereitstellen einer Deep Learning-VM mit NVIDIA Triton Inference Server unter Verwendung eines Self-Service-Katalogelements in VMware Aria Automation
Als Datenwissenschaftler können Sie eine GPU-fähige Deep Learning-VM mit NVIDIA Triton Inference Server aus dem Automation Service Broker-Self-Service-Katalog bereitstellen.