Aprenda a preparar el entorno ESXi para el almacenamiento de NVMe. Los requisitos de configuración pueden cambiar según el tipo de transporte de NVMe que utilice. Si utiliza NVMe over RDMA (RoCE v2), además de los requisitos generales, también debe configurar la red Ethernet sin pérdida.
Requisitos para NVMe over PCIe
- Dispositivos de almacenamiento de NVMe locales.
- Host compatible con ESXi.
- Adaptador de NVMe over PCIe de hardware. Después de instalar el adaptador, el host de ESXi lo detecta y se muestra en vSphere Client como adaptador de almacenamiento (vmhba) con el protocolo indicado como PCIe. No es necesario que configure el adaptador.
Requisitos para NVMe over RDMA (RoCE V2)
- Matriz de almacenamiento NVMe con compatibilidad con el transporte NVMe over RDMA (RoCE V2).
- Host compatible con ESXi.
- Conmutadores Ethernet que admiten una red sin pérdida.
- Adaptador de red compatible con RDMA over Converged Ethernet (RoCE v2). Para configurar el adaptador, consulte Configurar NVMe over RDMA (RoCE v2) en ESXi.
- Adaptador NVMe over RDMA de software. Este componente de software debe estar habilitado en el host ESXi y conectado a un adaptador RDMA de red adecuado. Para obtener información, consulte Agregar adaptadores de NVMe over RDMA o NVMe over TCP de software.
- Controlador de NVMe. Debe agregar una controladora después de configurar el adaptador NVMe over RDMA de software. Consulte Agregar controladores para NVMe over Fabrics.
- Ethernet sin pérdida. Consulte Configurar Ethernet sin pérdida para NVMe over RDMA.
Requisitos para NVMe over Fibre Channel
- Matriz de almacenamiento de Fibre Channel que admita NVMe. Para obtener información, consulte Usar ESXi con SAN de canal de fibra.
- Host compatible con ESXi.
- Adaptador NVMe de hardware. Por lo general, es un HBA de Fibre Channel que admite NVMe. Cuando se instala el adaptador, el host ESXi lo detecta, y se muestra en vSphere Client como un adaptador de Fibre Channel estándar (vmhba) con el protocolo de almacenamiento indicado como NVMe. No es necesario que configure el adaptador de NVMe de hardware para usarlo.
- Controlador de NVMe. No es necesario que configure el controlador. Después de instalar el adaptador NVMe de hardware necesario, se conecta automáticamente a todos los destinos y controladores a los que se puede acceder en ese momento. Posteriormente, puede desconectar los controladores o conectar otros controladores que no estaban disponibles durante el arranque del host. Consulte Agregar controladores para NVMe over Fabrics.
Requisitos para NVMe over TCP
- Matriz de almacenamiento NVMe con compatibilidad con el transporte NVMe over TCP.
- Host compatible con ESXi.
- Un adaptador Ethernet. Para configurar el adaptador, consulte Configurar NVMe over TCP en ESXi.
- Adaptador de NVMe over TCP de software. Este componente de software debe estar habilitado en el host ESXi y conectado a un adaptador de red adecuado. Para obtener más información, consulte Agregar adaptadores de NVMe over RDMA o NVMe over TCP de software.
- Controlador de NVMe. Debe agregar una controladora después de configurar el adaptador NVMe over TCP de software. Consulte Agregar controladores para NVMe over Fabrics.
Compatibilidad con almacenamiento compartido de VMware NVMe over Fabrics
- No mezcle tipos de transporte para acceder al mismo espacio de nombres.
- Asegúrese de que las rutas activas se presenten al host. Los espacios de nombres no se pueden registrar hasta que se detecte la ruta de acceso activa.
Funcionalidad de almacenamiento compartido | Almacenamiento de SCSI over Fabric | Almacenamiento de NVMe over Fabric |
---|---|---|
RDM | Compatible | No compatible |
Volcado de núcleo | Compatible | Compatible |
Reservas de SCSI-2 | Compatible | No compatible |
VMDK agrupado en clúster | Compatible | Compatible |
VMDK compartido con marca de multiescritura | Compatible | Compatible En vSphere 7.0 Update 1 y versiones posteriores. Para obtener más información, consulte el artículo de la base de conocimientos. |
Virtual Volumes | Compatible | Compatible En vSphere 8.0 y versiones posteriores. Para obtener más información, consulte NVMe y Virtual Volumes en vSphere. |
Aceleración de hardware con complementos de VAAI | Compatible | No compatible |
MPP predeterminado | NMP | HPP (NMP no puede reclamar los destinos NVMe-oF) |
Configurar Ethernet sin pérdida para NVMe over RDMA
NVMe over RDMA en ESXi requiere una red Ethernet sin pérdida.
Para establecer redes sin pérdida, puede seleccionar una de las opciones de configuración de calidad de servicio disponibles.
Habilitar el control de flujo de pausa global
En esta configuración de red, asegúrese de que el control de flujo de pausa global esté habilitado en los puertos de conmutador de red. Compruebe también que las NIC compatibles con RDMA del host negocien automáticamente el control de flujo correcto.
Para comprobar el control de flujo, ejecute el siguiente comando:
#esxcli network nic get -n vmnicX Pause RX: true Pause TX: true
Si las opciones de comando anteriores no se establecen en true, ejecute el siguiente comando.
#esxcli network nic pauseParams set -r true -t true -n vmnicX
Habilitar control de flujo prioritario
- Configuración automática. La configuración de PFC de DCB se aplica automáticamente en la RNIC del host si el controlador de RNIC es compatible con DCB y DCBx.
Para comprobar la configuración actual de DCB, ejecute el siguiente comando:
#esxcli network nic dcb status get -n vmnicX
- Configuración manual. En algunos casos, los controladores de RNIC proporcionan un método para configurar manualmente el PFC de DCB mediante parámetros específicos de los controladores. Para utilizar este método, consulte la documentación del controlador específico del proveedor. Por ejemplo, en el controlador ConnectX-4/5 de Mellanox, puede establecer el valor de prioridad de PFC en 3 si ejecuta el siguiente comando y a continuación reinicia el host.
#esxcli system module parameters set -m nmlx5_core -p "pfctx=0x08 pfcrx=0x08"
Habilitar PFC basado en DSCP
- Habilite el modo de confianza de PFC y DSCP.
#esxcli system module parameters set -m nmlx5_core -p "pfctx=0x08 pfcrx=0x08 trust_state=2"
- Establezca el valor de DSCP en 26.
#esxcli system module parameters set -m nmlx5_rdma -p "dscp_force=26"
- Verifique los parámetros que desea comprobar para confirmar si la configuración es correcta y si está establecida.
esxcli system module parameters list -m nmlx5_core | grep 'trust_state\|pfcrx\|pfctx'
- Reinicie el host.