Datenwissenschaftler, DevOps-Ingenieure und Entwickler können VMware Aria Automation verwenden, um Deep Learning-VMs auf der Supervisor-Instanz in einer VI-Arbeitslastdomäne bereitzustellen.
Der Workflow für die Bereitstellung einer Deep Learning-VM umfasst zwei Teile:
- Als Cloud-Administrator fügen Sie Self-Service-Katalogelemente für Private AI zu Automation Service Broker hinzu.
- Als Datenwissenschaftler oder DevOps-Ingenieur verwenden Sie ein KI-Workstation-Katalogelement, um eine Deep Learning-VM in einem neuen Namespace auf dem Supervisor bereitzustellen.
Erstellen von KI-Self-Service-Katalogelementen in VMware Aria Automation
Als Cloud-Administrator können Sie den Assistenten für die Katalogeinrichtung für Private AI in VMware Aria Automation verwenden, um schnell Katalogelemente für die Bereitstellung von Deep Learning-VMs oder GPU-beschleunigten TKG-Clustern in einer VI-Arbeitslastdomäne hinzuzufügen.
Datenwissenschaftler können Deep Learning-Katalogelemente für die Bereitstellung von Deep Learning-VMs verwenden. DevOps-Ingenieure können die Katalogelemente für die Bereitstellung von KI-fähigen TKG-Clustern verwenden. Bei jeder Ausführung fügt der Assistent für die Katalogeinrichtung für Private AI zwei Katalogelemente zum Service Broker-Katalog hinzu: eines für eine Deep Learning-VM und eines für einen TKG-Cluster.
Bei jeder Ausführung fügt der Assistent für die Katalogeinrichtung für Private AI zwei Katalogelemente zum Service Broker-Katalog hinzu: eines für eine Deep Learning-VM und eines für einen TKG-Cluster. Sie können den Assistenten jedes Mal ausführen, wenn Sie Folgendes benötigen:
- Aktivieren der Bereitstellung von KI-Arbeitslasten auf einem anderen Supervisor.
- Berücksichtigen einer Änderung Ihrer NVIDIA AI Enterprise-Lizenz, einschließlich der .tok-Datei für die Clientkonfiguration und des Lizenzservers oder der Download-URL für die vGPU-Gasttreiber für eine getrennte Umgebung.
- Integrieren einer Deep Learning-VM-Image-Änderung.
- Verwenden anderer vGPU- oder Nicht-GPU-VM-Klassen, Speicherrichtlinien oder Containerregistrierungen.
- Erstellen von Katalogelementen in einem neuen Projekt.
Voraussetzungen
- Stellen Sie sicher, dass VMware Private AI Foundation with NVIDIA für die VI-Arbeitslastdomäne verfügbar ist.
- Stellen Sie sicher, dass die Voraussetzungen für die Bereitstellung von Deep Learning-VMs vorhanden sind.
- Erstellen einer Inhaltsbibliothek mit Deep Learning-VM-Images für VMware Private AI Foundation with NVIDIA.
Prozedur
Bereitstellen einer Deep Learning-VM mithilfe eines Self-Service-Katalogs in VMware Aria Automation
In VMware Private AI Foundation with NVIDIA können Sie als Datenwissenschaftler oder DevOps-Ingenieur eine Deep Learning-VM aus VMware Aria Automation bereitstellen, indem Sie Self-Service-Katalogelemente einer KI-Workstation in Automation Service Broker verwenden.
Prozedur
- ♦ Stellen Sie in Automation Service Broker ein KI-Workstation-Katalogelement auf der Supervisor-Instanz in der VI-Arbeitslastdomäne bereit.
Weitere Informationen finden Sie unter Bereitstellen einer Deep Learning-VM für eine VI-Arbeitslastdomäne.Wenn Sie DCGM Exporter mit einer DL-Arbeitslast verwenden möchten, die GPU-Kapazität verwendet, können Sie die DL-Arbeitslast beim Start der virtuellen Maschine als Teil des cloud-init-Prozesses oder über die Befehlszeile nach dem Start der virtuellen Maschine installieren lassen. Um die DL-Arbeitslast in den cloud-init-Prozess einzubeziehen, fügen Sie im Anforderungsformular des KI-Workstation-Katalogelements neben den anderen Details für die Bereitstellung der Deep Learning-VM die folgende Konfiguration hinzu:
- Wählen Sie im Dropdown-Menü Softwarepaket die Option DCGM Exporter aus.
- Aktivieren Sie das Kontrollkästchen Benutzerdefinierte cloud-init und geben Sie die Anweisungen zum Ausführen der DL-Arbeitslast ein.
Ergebnisse
Der vGPU-Gasttreiber und die angegebene Deep Learning-Arbeitslast werden beim ersten Start der Deep Learning-VM installiert.
Sie können die Protokolle untersuchen oder die JupyterLab-Instanz öffnen, die in einigen der Images enthalten ist. Weitere Informationen finden Sie unter Deep Learning-Arbeitslasten in VMware Private AI Foundation with NVIDIA.
Nächste Maßnahme
Wenn Sie Informationen zum Zugriff auf die virtuelle Maschine und die darauf befindliche JupyterLab-Instanz benötigen, navigieren Sie in Automation Service Broker zu
.