Deep Learning-VM-Images in VMware Private AI Foundation with NVIDIA werden in einer gemeinsam genutzten Inhaltsbibliothek verteilt, die von VMware veröffentlicht wird. Als Cloud-Administrator verwenden Sie eine Inhaltsbibliothek, um während der VM-Bereitstellung bestimmte VM-Images in Ihrer VI-Arbeitslastdomäne abzurufen.

Wenn Sie Deep Learning-VMs direkt in einem vSphere-Cluster bereitstellen möchten, können Sie auch eine Inhaltsbibliothek auf der Seite Inhaltsbibliotheken im Seitenbereich des vSphere Client erstellen.

Hinweis: Diese Dokumentation basiert auf VMware Cloud Foundation 5.2.1. Informationen zur Funktion VMware Private AI Foundation with NVIDIA in VMware Cloud Foundation 5.2 finden Sie im Handbuch zu VMware Private AI Foundation with NVIDIA für VMware Cloud Foundation 5.2.

Voraussetzungen

Prozedur

  1. Melden Sie sich bei der vCenter Server-Instanz für die Verwaltungsdomäne unter https://<vcenter_server_fqdn>/ui als [email protected] an.
  2. Wählen Sie im Seitenbereich des vSphere Client die Option Private AI Foundation aus.
  3. Klicken Sie im Private AI Foundation-Workflow auf den Abschnitt Arbeitslastverwaltung einrichten.
  4. Erstellen Sie für die GPU-beschleunigte VI-Arbeitslastdomäne eine Inhaltsbibliothek für die Deep Learning-VM-Images auf der vCenter Server-Instanz.
    • Erstellen Sie für eine verbundene Umgebung eine abonnierte Inhaltsbibliothek, die mit https://packages.vmware.com/dl-vm/lib.json verbunden ist. Authentifizierung ist nicht erforderlich.
    • Laden Sie in einer nicht verbundenen Umgebung die Deep Learning-VM-Images von https://packages.vmware.com/dl-vm/ herunter und importieren Sie sie in eine lokale Inhaltsbibliothek.

      Laden Sie für jedes Image die relevanten .ovf-, .vmdk-, .mf- und .cert-Dateien herunter.