Datenwissenschaftler, DevOps-Ingenieure und Entwickler können VMware Aria Automation verwenden, um Deep Learning-VMs auf der Supervisor-Instanz in einer VI-Arbeitslastdomäne bereitzustellen.

Der Workflow für die Bereitstellung einer Deep Learning-VM umfasst zwei Teile:

  • Als Cloud-Administrator fügen Sie Self-Service-Katalogelemente für Private AI zu Automation Service Broker hinzu.
  • Als Datenwissenschaftler oder DevOps-Ingenieur verwenden Sie ein KI-Workstation-Katalogelement, um eine Deep Learning-VM in einem neuen Namespace auf dem Supervisor bereitzustellen.

Erstellen von KI-Self-Service-Katalogelementen in VMware Aria Automation

Als Cloud-Administrator können Sie den Assistenten für die Katalogeinrichtung für Private AI in VMware Aria Automation verwenden, um schnell Katalogelemente für die Bereitstellung von Deep Learning-VMs oder GPU-beschleunigten TKG-Clustern in einer VI-Arbeitslastdomäne hinzuzufügen.

Datenwissenschaftler können Deep Learning-Katalogelemente für die Bereitstellung von Deep Learning-VMs verwenden. DevOps-Ingenieure können die Katalogelemente für die Bereitstellung von KI-fähigen TKG-Clustern verwenden. Bei jeder Ausführung fügt der Assistent für die Katalogeinrichtung für Private AI zwei Katalogelemente zum Service Broker-Katalog hinzu: eines für eine Deep Learning-VM und eines für einen TKG-Cluster.

Bei jeder Ausführung fügt der Assistent für die Katalogeinrichtung für Private AI zwei Katalogelemente zum Service Broker-Katalog hinzu: eines für eine Deep Learning-VM und eines für einen TKG-Cluster. Sie können den Assistenten jedes Mal ausführen, wenn Sie Folgendes benötigen:

  • Aktivieren der Bereitstellung von KI-Arbeitslasten auf einem anderen Supervisor.
  • Berücksichtigen einer Änderung Ihrer NVIDIA AI Enterprise-Lizenz, einschließlich der .tok-Datei für die Clientkonfiguration und des Lizenzservers oder der Download-URL für die vGPU-Gasttreiber für eine getrennte Umgebung.
  • Integrieren einer Deep Learning-VM-Image-Änderung.
  • Verwenden anderer vGPU- oder Nicht-GPU-VM-Klassen, Speicherrichtlinien oder Containerregistrierungen.
  • Erstellen von Katalogelementen in einem neuen Projekt.

Voraussetzungen

Prozedur

  1. Navigieren Sie zur VMware Aria Automation-Startseite und klicken Sie auf Schnellstart.
  2. Führen Sie den Assistenten für die Einrichtung des Private AI Automation Services-Katalogs für Private AI Automation aus.

    Weitere Informationen finden Sie unter Hinzufügen von Private AI-Elementen zum Automation Service Broker-Katalog in der VMware Aria Automation-Produktdokumentation.

Bereitstellen einer Deep Learning-VM mithilfe eines Self-Service-Katalogs in VMware Aria Automation

In VMware Private AI Foundation with NVIDIA können Sie als Datenwissenschaftler oder DevOps-Ingenieur eine Deep Learning-VM aus VMware Aria Automation bereitstellen, indem Sie Self-Service-Katalogelemente einer KI-Workstation in Automation Service Broker verwenden.

Hinweis: VMware Aria Automation erstellt jedes Mal, wenn Sie eine Deep Learning-VM bereitstellen, einen Namespace.

Prozedur

  • Stellen Sie in Automation Service Broker ein KI-Workstation-Katalogelement auf der Supervisor-Instanz in der VI-Arbeitslastdomäne bereit.
    Weitere Informationen finden Sie unter Bereitstellen einer Deep Learning-VM für eine VI-Arbeitslastdomäne.
    Wenn Sie DCGM Exporter mit einer DL-Arbeitslast verwenden möchten, die GPU-Kapazität verwendet, können Sie die DL-Arbeitslast beim Start der virtuellen Maschine als Teil des cloud-init-Prozesses oder über die Befehlszeile nach dem Start der virtuellen Maschine installieren lassen. Um die DL-Arbeitslast in den cloud-init-Prozess einzubeziehen, fügen Sie im Anforderungsformular des KI-Workstation-Katalogelements neben den anderen Details für die Bereitstellung der Deep Learning-VM die folgende Konfiguration hinzu:
    1. Wählen Sie im Dropdown-Menü Softwarepaket die Option DCGM Exporter aus.
    2. Aktivieren Sie das Kontrollkästchen Benutzerdefinierte cloud-init und geben Sie die Anweisungen zum Ausführen der DL-Arbeitslast ein.

Ergebnisse

Der vGPU-Gasttreiber und die angegebene Deep Learning-Arbeitslast werden beim ersten Start der Deep Learning-VM installiert.

Sie können die Protokolle untersuchen oder die JupyterLab-Instanz öffnen, die in einigen der Images enthalten ist. Weitere Informationen finden Sie unter Deep Learning-Arbeitslasten in VMware Private AI Foundation with NVIDIA.

Nächste Maßnahme

Wenn Sie Informationen zum Zugriff auf die virtuelle Maschine und die darauf befindliche JupyterLab-Instanz benötigen, navigieren Sie in Automation Service Broker zu Nutzung > Bereitstellungen > Bereitstellungen.