Damit Datenwissenschaftler die Deep Learning-VM-Vorlagen in VMware Private AI Foundation with NVIDIA schnell testen können, können Sie als Cloud-Administrator mithilfe des vSphere Client eine Deep Learning-VM direkt auf einem vSphere-Cluster bereitstellen.

Informationen zu Deep Learning-VM-Images in VMware Private AI Foundation with NVIDIA finden Sie unter Informationen zu Deep Learning-VM-Images in VMware Private AI Foundation with NVIDIA.

Für die Bereitstellung einer Deep Learning-VM mit NVIDIA RAG ist eine Vektordatenbank erforderlich, wie z. B. eine PostgreSQL-Datenbank mit pgvector in VMware Data Services Manager. Informationen zum Bereitstellen einer solchen Datenbank und deren Integration in eine Deep Learning-VM finden Sie unter Bereitstellen einer Deep Learning-VM mit einer RAG-Arbeitslast.

Voraussetzungen

Stellen Sie sicher, dass VMware Private AI Foundation with NVIDIA bereitgestellt und konfiguriert ist. Weitere Informationen finden Sie unter Vorbereiten von VMware Cloud Foundation für die Bereitstellung von Private AI-Arbeitslasten.

Prozedur

  1. Melden Sie sich bei der vCenter Server-Instanz für die VI-Arbeitslastdomäne an.
  2. Wählen Sie im vSphere Client-Startmenü die Option Inhaltsbibliotheken aus.
  3. Navigieren Sie zum Deep Learning-VM-Image in der Inhaltsbibliothek.
  4. Klicken Sie mit der rechten Maustaste auf eine OVF-Vorlage und wählen Sie Neue VM über diese Vorlage aus.
  5. Geben Sie auf der Seite Namen und Ordner auswählen des angezeigten Assistenten einen Namen ein und wählen Sie einen VM-Ordner aus, wählen Sie Hardware dieser virtuellen Maschine anpassen und klicken Sie auf Weiter.
  6. Wählen Sie einen GPU-fähigen Cluster in der VI-Arbeitslastdomäne aus, geben Sie an, ob die virtuelle Maschine nach Abschluss der Bereitstellung eingeschaltet werden muss, und klicken Sie auf Weiter.
  7. Folgen Sie den Anweisungen des Assistenten, um einen Datenspeicher und ein Netzwerk auf dem Distributed Switch für den Cluster auszuwählen.
  8. Geben Sie auf der Seite Vorlage anpassen die benutzerdefinierten VM-Eigenschaften ein, die zum Einrichten der KI-Funktionen erforderlich sind, und klicken Sie auf Weiter.
    Weitere Informationen finden Sie unter OVF-Eigenschaften von Deep Learning-VMs.
  9. Weisen Sie auf der Seite Hardware anpassen der virtuellen Maschine ein NVIDIA vGPU-Gerät als Neues PCI-Gerät zu und klicken Sie auf Weiter.

    Wählen Sie für eine Deep Learning-VM, auf der ein NVIDIA RAG ausgeführt wird, das vGPU-Profil in voller Größe für den Zeitaufteilungsmodus oder ein MIG-Profil aus. Wählen Sie beispielsweise für NVIDIA A100 40 GB im vGPU-Zeitaufteilungsmodus die Option nvidia_a100-40c aus.

  10. Legen Sie für eine Deep Learning-VM, auf der ein NVIDIA RAG ausgeführt wird, auf der Registerkarte Erweitere Parameter der Einstellungen der virtuellen Maschine den Parameter pciPassthru<vgpu-id>.cfg.enable_uvm auf 1 fest.

    wobei <vgpu-id> die der virtuellen Maschine zugewiesene vGPU identifiziert. Wenn der virtuellen Maschine beispielsweise zwei vGPUs zugewiesen sind, legen Sie pciPassthru0.cfg.parameter=1 und pciPassthru1.cfg.parameter = 1 fest.

  11. Überprüfen Sie die Bereitstellungsspezifikation und klicken Sie auf Beenden.

Ergebnisse

Der vGPU-Gasttreiber und die angegebene Deep Learning-Arbeitslast werden beim ersten Start der Deep Learning-VM installiert.

Sie können die Protokolle untersuchen oder die JupyterLab-Instanz öffnen, die in einigen der Images enthalten ist. Sie können Zugriffsdetails für Datenwissenschaftler in Ihrer Organisation freigeben. Weitere Informationen finden Sie unter Deep Learning-Arbeitslasten in VMware Private AI Foundation with NVIDIA.

Nächste Maßnahme

  • Stellen Sie über SSH eine Verbindung zur Deep Learning-VM her und stellen Sie sicher, dass alle Komponenten installiert sind und wie erwartet ausgeführt werden.
  • Senden Sie die Zugriffsdetails an Ihre Datenwissenschaftler.