Ao usar a tecnologia NVMe com o VMware, siga as diretrizes e os requisitos específicos.
Requisitos para NVMe sobre PCIe
- Dispositivos de armazenamento NVMe locais.
- Host ESXi compatível.
- Hardware NVMe sobre adaptador PCIe. Depois de instalar o adaptador, o host ESXi o detecta e o exibe no vSphere Client como um adaptador de armazenamento (vmhba) com o protocolo indicado como PCIe. Você não precisa configurar o adaptador.
Requisitos para NVMe sobre RDMA (RoCE v2)
- Storage array NVMe com suporte a transporte NVMe sobre RDMA (RoCE v2).
- Host ESXi compatível.
- Switches Ethernet que oferecem suporte a uma rede sem perdas.
- Adaptador de rede compatível com RDMA sobre Ethernet Convergente (RoCE v2). Para configurar o adaptador, consulte Configurando adaptadores para armazenamento NVMe sobre RDMA (RoCE v2).
- Software NVMe sobre adaptador RDMA. Esse componente de software deve estar ativado no host ESXi e conectado a um adaptador RDMA de rede apropriado. Para obter informações, consulte Adicionar adaptadores NVMe de software.
- controlador NVMe. Você deve adicionar um controlador depois de configurar o software do adaptador NVMe sobre RDMA. Consulte Adicionar controladores para NVMe sobre malhas.
- Ethernet sem perdas. Consulte Configurando a Ethernet sem perdas para NVMe sobre RDMA.
Requisitos para NVMe sobre Fibre Channel
- Matriz de armazenamento Fibre Channel compatível com NVMe. Para obter informações, consulte Usando ESXi com SAN Fibre Channel.
- Host ESXi compatível.
- Adaptador NVMe de hardware. Normalmente, é um HBA Fibre Channel que oferece suporte a NVMe. Quando você instala o adaptador, seu host ESXi o detecta e o exibe no vSphere Client como um adaptador Fibre Channel padrão (vmhba) com o protocolo de armazenamento indicado como NVMe. Você não precisa configurar o adaptador NVMe de hardware para usá-lo.
- controlador NVMe. Você não precisa configurar o controlador. Depois de instalar o adaptador NVMe de hardware necessário, ele se conecta automaticamente a todos os destinos e controladores que podem ser acessados no momento. Posteriormente, você poderá desconectar os controladores ou conectar outros controladores que não estavam disponíveis durante a inicialização do host. Consulte Adicionar controladores para NVMe sobre malhas.
Requisitos para NVMe sobre TCP
- Matriz de armazenamento NVMe com suporte a transporte NVMe sobre TCP.
- Host ESXi compatível.
- Um adaptador Ethernet. Para configurar o adaptador, consulte Configurando adaptadores para armazenamento NVMe sobre TCP.
- Software NVMe sobre adaptador TCP. Esse componente de software deve estar ativado no host ESXi e conectado a um adaptador de rede apropriado. Para obter mais informações, consulte Adicionar adaptadores NVMe de software.
- controlador NVMe. Você deve adicionar um controlador depois de configurar o software NVMe sobre adaptador TCP. Consulte Adicionar controladores para NVMe sobre malhas.
VMware Suporte ao armazenamento compartilhado do NVMe sobre Fabrics
- Não misture tipos de transporte para acessar o mesmo namespace.
- Certifique-se de que os caminhos ativos sejam apresentados ao host. Os namespaces não podem ser registrados até que o caminho ativo seja descoberto.
Funcionalidade de armazenamento compartilhado | SCSI sobre armazenamento de malha | NVMe sobre armazenamento de malha |
---|---|---|
RDM | Compatível | Não compatível |
Core dump | Compatível | Compatível |
Reservas SCSI-2 | Compatível | Não compatível |
VMDK em cluster | Compatível | Compatível |
VMDK compartilhado com sinalizador de vários gravadores | Compatível | Compatível No vSphere 7.0 Atualização 1 e posterior. Para obter mais informações, consulte o artigo da Base de conhecimento. |
Virtual Volumes | Compatível | Compatível No vSphere 8.0 e posterior. Para obter mais informações, consulte NVMe e Virtual Volumes. |
Aceleração de hardware com plug-ins VAAI | Compatível | Não compatível |
MPP padrão | NMP | HPP (destinos NVMe-oF não podem ser reivindicados pelo NMP) |
Configurando a Ethernet sem perdas para NVMe sobre RDMA
O NVMe sobre RDMA em ESXi requer uma rede Ethernet sem perdas.
Para estabelecer redes sem perdas, você pode selecionar uma das configurações de QoS disponíveis.
Ativar controle de fluxo de pausa global
Nesta configuração de rede, certifique-se de que o controle de fluxo de pausa global esteja ativado nas portas do comutador de rede. Além disso, certifique-se de que as NICs compatíveis com RDMA no host negociem automaticamente para o controle de fluxo correto automaticamente.
Para verificar o controle de fluxo, execute o seguinte comando:
#esxcli network nic get -n vmnicX Pause RX: true Pause TX: true
Se as opções de comando acima não estiverem definidas como true, execute o seguinte comando.
#esxcli network nic pauseParams set -r true -t true -n vmnicX
Ativar controle de fluxo prioritário
- Configuração Automática. Aplique a configuração DCB PFC automaticamente no host RNIC, se o driver RNIC oferecer suporte a DCB e DCBx.
Você pode verificar as configurações atuais do DCB executando o seguinte comando:
#esxcli network nic dcb status get -n vmnicX
- Configuração manual. Em alguns casos, os drivers RNIC fornecem um método para configurar manualmente o DCB PFC usando parâmetros específicos do driver. Para usar esse método, consulte a documentação do driver específico do fornecedor. Por exemplo, no driver Mellanox ConnectX-4/5, você pode definir o valor de prioridade PFC como três executando o seguinte comando e reinicializando o host.
#esxcli system module parameters set -m nmlx5_core -p "pfctx=0x08 pfcrx=0x08"
Ativar PFC baseado em DSCP
- Ative o modo de confiança PFC e DSCP.
#esxcli system module parameters set -m nmlx5_core -p "pfctx=0x08 pfcrx=0x08 trust_state=2"
- Defina o valor de DSCP como 26.
#esxcli system module parameters set -m nmlx5_rdma -p "dscp_force=26"
- Verifique os parâmetros para verificar se as configurações estão corretas e definidas.
esxcli system module parameters list -m nmlx5_core | grep 'trust_state\|pfcrx\|pfctx'
- Reinicie o host.