È possibile distribuire i carichi di lavoro di intelligenza artificiale e machine learning nei cluster il cui provisioning viene eseguito da Tanzu Kubernetes Grid. La distribuzione dei carichi di lavoro di intelligenza artificiale e machine learning richiede alcune configurazioni iniziali da parte dei provider di servizi e alcune configurazioni da parte degli amministratori dell'organizzazione e degli utenti del tenant nel workflow di creazione dei cluster.

Per preparare l'ambiente VMware Cloud Director per il provisioning di cluster che siano in grado di gestire carichi di lavoro di intelligenza artificiale e machine learning, i provider di servizi devono creare un criterio di vGPU e aggiungere un criterio di vGPU a un VDC dell'organizzazione. Per istruzioni su come eseguire queste attività, fare riferimento a Creazione e gestione dei criteri di vGPU. Quando i provider di servizi eseguono questi passaggi, gli utenti del tenant possono distribuire i carichi di lavoro di intelligenza artificiale e machine learning nei cluster di Tanzu Kubernetes Grid. Per creare cluster di Tanzu Kubernetes Grid con funzionalità vGPU, vedere Creazione di un cluster Tanzu Kubernetes Grid.

Nota: Il supporto della vGPU si estende solo a Tanzu Kubernetes Grid 1.5.

Limitazioni del firmware BIOS

I modelli di Tanzu Kubernetes Grid di VMware Cloud Director Container Service Extension vengono creati con il firmware BIOS e non è possibile modificare questa configurazione del firmware. La memoria BAR1 in questo firmware non può superare i 256 MB. Le schede di NVIDIA Grid con più di 256 MB di memoria BAR1 richiedono il firmware EFI. Per ulteriori informazioni sulle limitazioni del firmware, fare riferimento alla documentazione del software VMware vSphere: NVIDIA Virtual GPU.

Creazione di un'immagine personalizzata con il firmware EFI

Per superare le limitazioni del firmware BIOS presenti nei modelli di Tanzu Kubernetes Grid, è possibile creare un'immagine personalizzata con il firmware EFI in vSphere. Per istruzioni, vedere Immagini di macchine personalizzate Linux con Tanzu Kubernetes Grid 1.5.

Per creare correttamente immagini di macchine personalizzate Linux con Tanzu Kubernetes Grid 1.5 in un modello di GPU, è inoltre necessario includere i seguenti input quando si crea l'immagine personalizzata:
Input Descrizione
customizations.json Per creare un'immagine per un cluster abilitato per vGPU per vSphere, creare un file denominato customizations.json e aggiungere quanto segue:
{
"vmx_version": "17"
}
metadata.json VERSION deve corrispondere esattamente a una versione stabilita di un modello di Tanzu Kubernetes Grid, perché il plug-in dell'interfaccia utente Kubernetes Container Clusters non riconosce il file OVA se il numero di versione è diverso da quello del modello.
L'esempio seguente illustra la convenzione di denominazione dei file consigliata:
Modello e versione Metadati
Modello Kubernetes per TKG 1.5.4 ubuntu-2004-kube-v1.22.9+vmware.1-tkg.1-2182cbabee08edf480ee9bc5866d6933.ova
Versione
v1.22.9+vmware.1-tkg.1-2182cbabee08edf480ee9bc5866d6933
build-node-ova-vsphere-ubuntu-2004-efi Utilizzare questo comando per eseguire il generatore di immagini per i cluster abilitati per vGPU. Questo comando specifica la creazione dell'immagine personalizzata con il firmware EFI.
I provider di servizi devono configurare un nuovo catalogo in VMware Cloud Director per i modelli di vGPU e caricare i modelli in questo catalogo. Quando un utente desidera creare un cluster abilitato per vGPU, può selezionare questo modello nel processo di creazione del cluster e utilizza le vGPU in tale cluster. Per ulteriori informazioni, vedere Creazione di cataloghi e caricamento di file OVA.