Cuando utilice la tecnología NVMe con VMware, siga las directrices y los requisitos específicos.
Requisitos para NVMe over PCIe
El entorno de almacenamiento de
ESXi debe incluir los siguientes componentes:
- Dispositivos de almacenamiento de NVMe locales.
- Host compatible con ESXi.
- Adaptador de NVMe over PCIe de hardware. Después de instalar el adaptador, el host de ESXi lo detecta y se muestra en vSphere Client como adaptador de almacenamiento (vmhba) con el protocolo indicado como PCIe. No es necesario que configure el adaptador.
Requisitos para NVMe over RDMA (RoCE V2)
- Matriz de almacenamiento NVMe con compatibilidad con el transporte NVMe over RDMA (RoCE V2).
- Host compatible con ESXi.
- Conmutadores Ethernet que admiten una red sin pérdida.
- Adaptador de red compatible con RDMA over Converged Ethernet (RoCE v2). Para configurar el adaptador, consulte Ver adaptadores de red de RDMA.
- Adaptador NVMe over RDMA de software. Este componente de software debe estar habilitado en el host ESXi y conectado a un adaptador RDMA de red adecuado. Para obtener información, consulte Habilitar adaptadores de software de NVMe over RDMA o NVMe over TCP.
- Controlador de NVMe. Debe agregar un controlador después de configurar un adaptador NVMe over RDMA de software. Consulte Agregar controlador para NVMe over Fabrics.
Requisitos para NVMe over Fibre Channel
- Matriz de almacenamiento de Fibre Channel que admita NVMe. Para obtener información, consulte Usar ESXi con SAN de canal de fibra.
- Host compatible con ESXi.
- Adaptador NVMe de hardware. Por lo general, es un HBA de Fibre Channel que admite NVMe. Cuando se instala el adaptador, el host ESXi lo detecta, y se muestra en vSphere Client como un adaptador de Fibre Channel estándar (vmhba) con el protocolo de almacenamiento indicado como NVMe. No es necesario que configure el adaptador de NVMe de hardware para usarlo.
- Controlador de NVMe. No es necesario que configure el controlador. Después de instalar el adaptador NVMe de hardware necesario, se conecta automáticamente a todos los destinos y controladores a los que se puede acceder en ese momento. Posteriormente, puede desconectar los controladores o conectar otros controladores que no estaban disponibles durante el arranque del host. Consulte Agregar controlador para NVMe over Fabrics.
Requisitos para NVMe over TCP
- Matriz de almacenamiento NVMe con compatibilidad con el transporte NVMe over TCP.
- Host compatible con ESXi.
- Un adaptador Ethernet.
- Adaptador de NVMe over TCP de software. Este componente de software debe estar habilitado en el host ESXi y conectado a un adaptador de red adecuado. Para obtener más información, consulte Habilitar adaptadores de software de NVMe over RDMA o NVMe over TCP.
- Controlador de NVMe. Debe agregar un controlador después de configurar un adaptador NVMe over TCP de software. Consulte Agregar controlador para NVMe over Fabrics.
Compatibilidad con almacenamiento compartido de VMware NVMe over Fabrics
En el entorno de
ESXi, los dispositivos de almacenamiento NVMe son similares a los dispositivos de almacenamiento SCSI y se pueden usar como almacenamiento compartido. Siga estas reglas cuando use el almacenamiento de NVMe-oF.
- No mezcle tipos de transporte para acceder al mismo espacio de nombres.
- Asegúrese de que las rutas activas se presenten al host. Los espacios de nombres no se pueden registrar hasta que se detecte la ruta de acceso activa.
Funcionalidad de almacenamiento compartido | Almacenamiento de SCSI over Fabric | Almacenamiento de NVMe over Fabric |
---|---|---|
RDM | Compatible | No compatible |
Volcado de núcleo | Compatible | No compatible |
Reservas de SCSI-2 | Compatible | No compatible |
VMDK agrupado en clúster | Compatible | No compatible |
VMDK compartido con marca de multiescritura | Compatible | Compatible En vSphere 7.0 Update 1 y versiones posteriores. Para obtener más información, consulte el artículo de la base de conocimientos. |
Virtual Volumes | Compatible | No compatible |
Aceleración de hardware con complementos de VAAI | Compatible | No compatible |
MPP predeterminado | NMP | HPP (NMP no puede reclamar los destinos NVMe-oF) |
Límites | LUN = 1024, rutas de acceso = 4096 | Espacios de nombres = 32, rutas de acceso = 128 (máximo 4 rutas de acceso por espacio de nombres en un host) |