Aprenda a preparar el entorno ESXi para el almacenamiento de NVMe. Los requisitos de configuración pueden cambiar según el tipo de transporte de NVMe que utilice. Si utiliza NVMe over RDMA (RoCE v2), además de los requisitos generales, también debe configurar la red Ethernet sin pérdida.

Requisitos para NVMe over PCIe

El entorno de almacenamiento de ESXi debe incluir los siguientes componentes:
  • Dispositivos de almacenamiento de NVMe locales.
  • Host compatible con ESXi.
  • Adaptador de NVMe over PCIe de hardware. Después de instalar el adaptador, el host de ESXi lo detecta y se muestra en vSphere Client como adaptador de almacenamiento (vmhba) con el protocolo indicado como PCIe. No es necesario que configure el adaptador.

Requisitos para NVMe over RDMA (RoCE V2)

Requisitos para NVMe over Fibre Channel

  • Matriz de almacenamiento de Fibre Channel que admita NVMe. Para obtener información, consulte Usar ESXi con SAN de canal de fibra.
  • Host compatible con ESXi.
  • Adaptador NVMe de hardware. Por lo general, es un HBA de Fibre Channel que admite NVMe. Cuando se instala el adaptador, el host ESXi lo detecta, y se muestra en vSphere Client como un adaptador de Fibre Channel estándar (vmhba) con el protocolo de almacenamiento indicado como NVMe. No es necesario que configure el adaptador de NVMe de hardware para usarlo.
  • Controlador de NVMe. No es necesario que configure el controlador. Después de instalar el adaptador NVMe de hardware necesario, se conecta automáticamente a todos los destinos y controladores a los que se puede acceder en ese momento. Posteriormente, puede desconectar los controladores o conectar otros controladores que no estaban disponibles durante el arranque del host. Consulte Agregar controladores para NVMe over Fabrics.

Requisitos para NVMe over TCP

Compatibilidad con almacenamiento compartido de VMware NVMe over Fabrics

En el entorno de ESXi, los dispositivos de almacenamiento NVMe son similares a los dispositivos de almacenamiento SCSI y se pueden usar como almacenamiento compartido. Siga estas reglas cuando use el almacenamiento de NVMe-oF.
  • No mezcle tipos de transporte para acceder al mismo espacio de nombres.
  • Asegúrese de que las rutas activas se presenten al host. Los espacios de nombres no se pueden registrar hasta que se detecte la ruta de acceso activa.
Funcionalidad de almacenamiento compartido Almacenamiento de SCSI over Fabric Almacenamiento de NVMe over Fabric
RDM Compatible No compatible
Volcado de núcleo Compatible Compatible
Reservas de SCSI-2 Compatible No compatible
VMDK agrupado en clúster Compatible Compatible
VMDK compartido con marca de multiescritura Compatible Compatible

En vSphere 7.0 Update 1 y versiones posteriores.

Para obtener más información, consulte el artículo de la base de conocimientos.

Virtual Volumes Compatible Compatible

En vSphere 8.0 y versiones posteriores.

Para obtener más información, consulte NVMe y Virtual Volumes en vSphere.

Aceleración de hardware con complementos de VAAI Compatible No compatible
MPP predeterminado NMP HPP (NMP no puede reclamar los destinos NVMe-oF)

Configurar Ethernet sin pérdida para NVMe over RDMA

NVMe over RDMA en ESXi requiere una red Ethernet sin pérdida.

Para establecer redes sin pérdida, puede seleccionar una de las opciones de configuración de calidad de servicio disponibles.

Habilitar el control de flujo de pausa global

En esta configuración de red, asegúrese de que el control de flujo de pausa global esté habilitado en los puertos de conmutador de red. Compruebe también que las NIC compatibles con RDMA del host negocien automáticamente el control de flujo correcto.

Para comprobar el control de flujo, ejecute el siguiente comando:

#esxcli network nic get -n vmnicX
   Pause RX: true
   Pause TX: true

Si las opciones de comando anteriores no se establecen en true, ejecute el siguiente comando.

#esxcli network nic pauseParams set -r true -t true -n vmnicX

Habilitar control de flujo prioritario

Para que el tráfico RoCE no tenga pérdidas, debe configurar el valor de prioridad de PFC en 3 en el conmutador físico y los hosts. El PFC se puede configurar en el host ESXi de dos maneras:
  • Configuración automática. La configuración de PFC de DCB se aplica automáticamente en la RNIC del host si el controlador de RNIC es compatible con DCB y DCBx.

    Para comprobar la configuración actual de DCB, ejecute el siguiente comando:

    #esxcli network nic dcb status get -n vmnicX
  • Configuración manual. En algunos casos, los controladores de RNIC proporcionan un método para configurar manualmente el PFC de DCB mediante parámetros específicos de los controladores. Para utilizar este método, consulte la documentación del controlador específico del proveedor. Por ejemplo, en el controlador ConnectX-4/5 de Mellanox, puede establecer el valor de prioridad de PFC en 3 si ejecuta el siguiente comando y a continuación reinicia el host.
    #esxcli system module parameters set -m nmlx5_core -p "pfctx=0x08 pfcrx=0x08"

Habilitar PFC basado en DSCP

El PFC basado en DSCP es otra forma de configurar la red sin pérdida. En los hosts y los conmutadores físicos, debe establecer el valor de DSCP en 26. Para usar esta opción, consulte la documentación del controlador específico del proveedor. Por ejemplo, en el controlador ConnectX-4/5 de Mellanox, puede establecer el valor de etiqueta de DSCP en 26 si ejecuta los siguientes comandos.
  1. Habilite el modo de confianza de PFC y DSCP.
    #esxcli system module parameters set -m nmlx5_core -p "pfctx=0x08 pfcrx=0x08 trust_state=2"
    
  2. Establezca el valor de DSCP en 26.
    #esxcli system module parameters set -m nmlx5_rdma -p "dscp_force=26"
  3. Verifique los parámetros que desea comprobar para confirmar si la configuración es correcta y si está establecida.
    esxcli system module parameters list -m nmlx5_core | grep 'trust_state\|pfcrx\|pfctx'
  4. Reinicie el host.