Vous pouvez utiliser un adaptateur PVRDMA (Paravirtual Remote Direct Memory Access) avec vos serveurs et clients vSphere Bitfusion pour améliorer les performances de votre cluster.

L'un des avantages de l'exécution des charges de travail ML et IA dans vSphere Bitfusion est de conserver le pipeline du travail GPU rempli, ce qui cache la latence réseau. Étant donné que le pipeline GPU ne peut pas toujours être rempli, une connexion réseau avec une faible latence de 50 microsecondes ou moins est recommandée.

Remote Direct Memory Access (RDMA) offre un accès direct à la mémoire depuis la mémoire d'un ordinateur vers la mémoire d'un autre ordinateur sans impliquer le système d'exploitation ni le CPU. Le transfert de la mémoire est déplacé vers un adaptateur HCA compatible avec la technologie RDMA. Les unités de transmission maximale (MTU) de grande taille sont couramment utilisées dans la mise en réseau RDMA, par exemple 9 000 octets par trame. L'accès direct et les grandes tailles de trame réduisent la surcharge du réseau et la latence, et améliorent les performances de vSphere Bitfusion.

Paravirtual Remote Direct Memory Access (PVRDMA) permet l'accès direct à la mémoire à distance entre les machines virtuelles (VM) sur un réseau distribué sans dédier un adaptateur physique entier à une machine virtuelle via DirectPath I/O. Les adaptateurs réseau PVRDMA fournissent un accès direct à la mémoire à distance dans un environnement virtuel, dans lequel les machines virtuelles peuvent se trouver sur le même hôte physique ou sur d'autres hôtes du même réseau. Lorsque vous n'utilisez pas DirectPath I/O et que des adaptateurs et des commutateurs physiques compatibles RDMA sont disponibles, il est recommandé d'utiliser PVRDMA au lieu de VMXNET3.

Pour plus d'informations, reportez-vous à la section Technologie RDMA (Remote Direct Memory Access) pour machines virtuelles dans la documentation Mise en réseau vSphere.