Erstellen und konfigurieren Sie einen vSphere-Namespace, wenn Sie DevOps-Ingenieure bei der Verwendung des kubectl-Befehlszeilentools unterstützen möchten, um eine Deep Learning-VM oder einen GPU-beschleunigten TKG-Cluster auf einem Supervisor bereitzustellen.

VMware Aria Automation erstellt jedes Mal, wenn eine Deep Learning-VM bereitgestellt wird, einen Namespace und fügt ihr automatisch die Inhaltsbibliothek hinzu.

Hinweis: Diese Dokumentation basiert auf VMware Cloud Foundation 5.2.1. Informationen zur Funktion VMware Private AI Foundation with NVIDIA in VMware Cloud Foundation 5.2 finden Sie im Handbuch zu VMware Private AI Foundation with NVIDIA für VMware Cloud Foundation 5.2.

Voraussetzungen

Prozedur

  1. Melden Sie sich für eine VMware Cloud Foundation 5.2.1-Instanz bei der vCenter Server-Instanz für die VI-Arbeitslastdomäne unter https://<vcenter_server_fqdn>/ui als [email protected] an.
  2. Klicken Sie im Seitenbereich des vSphere Client auf Arbeitslastverwaltung.
  3. Erstellen Sie auf der Seite Arbeitslastverwaltung den vSphere-Namespace, fügen Sie Ressourcengrenzwerte, Speicherrichtlinien und Berechtigungen für DevOps-Ingenieure hinzu und verknüpfen Sie die vGPU-basierten VM-Klassen damit.
  4. Fügen Sie die Inhaltsbibliothek für Deep Learning mit Deep Learning-VM-Images zum vSphere-Namespace für KI-Arbeitslasten hinzu.
    1. Klicken Sie im Namespace für KI-Arbeitslasten auf der Karte VM-Dienst für den Namespace auf Inhaltsbibliotheken verwalten.
    2. Wählen Sie die Inhaltsbibliothek mit den Deep Learning-VM-Images aus und klicken Sie auf OK.