Ao usar a tecnologia NVMe com o VMware, siga as diretrizes e os requisitos específicos.

Requisitos para NVMe sobre PCIe

Seu ambiente de armazenamento do ESXi deve incluir os seguintes componentes:
  • Dispositivos de armazenamento NVMe locais.
  • Host ESXi compatível.
  • Hardware NVMe sobre adaptador PCIe. Depois de instalar o adaptador, o host ESXi o detecta e o exibe no vSphere Client como um adaptador de armazenamento (vmhba) com o protocolo indicado como PCIe. Você não precisa configurar o adaptador.

Requisitos para NVMe sobre RDMA (RoCE v2)

Requisitos para NVMe sobre Fibre Channel

  • Matriz de armazenamento Fibre Channel compatível com NVMe. Para obter informações, consulte Usando ESXi com SAN Fibre Channel.
  • Host ESXi compatível.
  • Adaptador NVMe de hardware. Normalmente, é um HBA Fibre Channel que oferece suporte a NVMe. Quando você instala o adaptador, seu host ESXi o detecta e o exibe no vSphere Client como um adaptador Fibre Channel padrão (vmhba) com o protocolo de armazenamento indicado como NVMe. Você não precisa configurar o adaptador NVMe de hardware para usá-lo.
  • controlador NVMe. Você não precisa configurar o controlador. Depois de instalar o adaptador NVMe de hardware necessário, ele se conecta automaticamente a todos os destinos e controladores que podem ser acessados no momento. Posteriormente, você poderá desconectar os controladores ou conectar outros controladores que não estavam disponíveis durante a inicialização do host. Consulte Adicionar controladores para NVMe sobre malhas.

Requisitos para NVMe sobre TCP

VMware Suporte ao armazenamento compartilhado do NVMe sobre Fabrics

No ambiente ESXi, os dispositivos de armazenamento NVMe parecem semelhantes aos dispositivos de armazenamento SCSI e podem ser usados como armazenamento compartilhado. Siga estas regras ao usar o armazenamento NVMe-oF.
  • Não misture tipos de transporte para acessar o mesmo namespace.
  • Certifique-se de que os caminhos ativos sejam apresentados ao host. Os namespaces não podem ser registrados até que o caminho ativo seja descoberto.
Funcionalidade de armazenamento compartilhado SCSI sobre armazenamento de malha NVMe sobre armazenamento de malha
RDM Compatível Não compatível
Core dump Compatível Compatível
Reservas SCSI-2 Compatível Não compatível
VMDK em cluster Compatível Compatível
VMDK compartilhado com sinalizador de vários gravadores Compatível Compatível

No vSphere 7.0 Atualização 1 e posterior.

Para obter mais informações, consulte o artigo da Base de conhecimento.

Virtual Volumes Compatível Compatível

No vSphere 8.0 e posterior.

Para obter mais informações, consulte NVMe e Virtual Volumes.

Aceleração de hardware com plug-ins VAAI Compatível Não compatível
MPP padrão NMP HPP (destinos NVMe-oF não podem ser reivindicados pelo NMP)

Configurando a Ethernet sem perdas para NVMe sobre RDMA

O NVMe sobre RDMA em ESXi requer uma rede Ethernet sem perdas.

Para estabelecer redes sem perdas, você pode selecionar uma das configurações de QoS disponíveis.

Ativar controle de fluxo de pausa global

Nesta configuração de rede, certifique-se de que o controle de fluxo de pausa global esteja ativado nas portas do comutador de rede. Além disso, certifique-se de que as NICs compatíveis com RDMA no host negociem automaticamente para o controle de fluxo correto automaticamente.

Para verificar o controle de fluxo, execute o seguinte comando:

#esxcli network nic get -n vmnicX
   Pause RX: true
   Pause TX: true

Se as opções de comando acima não estiverem definidas como true, execute o seguinte comando.

#esxcli network nic pauseParams set -r true -t true -n vmnicX

Ativar controle de fluxo prioritário

Para que o tráfego RoCE seja sem perdas, você deve configurar o valor de prioridade PFC como 3 no comutador físico e nos hosts. Você pode configurar o PFC no host ESXi de duas maneiras:
  • Configuração Automática. Aplique a configuração DCB PFC automaticamente no host RNIC, se o driver RNIC oferecer suporte a DCB e DCBx.

    Você pode verificar as configurações atuais do DCB executando o seguinte comando:

    #esxcli network nic dcb status get -n vmnicX
  • Configuração manual. Em alguns casos, os drivers RNIC fornecem um método para configurar manualmente o DCB PFC usando parâmetros específicos do driver. Para usar esse método, consulte a documentação do driver específico do fornecedor. Por exemplo, no driver Mellanox ConnectX-4/5, você pode definir o valor de prioridade PFC como três executando o seguinte comando e reinicializando o host.
    #esxcli system module parameters set -m nmlx5_core -p "pfctx=0x08 pfcrx=0x08"

Ativar PFC baseado em DSCP

O PFC baseado em DSCP é outra maneira de configurar uma rede sem perdas. Em comutadores e hosts físicos, você deve definir o valor de DSCP como 26. Para usar essa opção, consulte a documentação do driver específico do fornecedor. Por exemplo, no driver Mellanox ConnectX-4/5, você pode definir o valor da tag DSCP como 26 executando os comandos a seguir.
  1. Ative o modo de confiança PFC e DSCP.
    #esxcli system module parameters set -m nmlx5_core -p "pfctx=0x08 pfcrx=0x08 trust_state=2"
    
  2. Defina o valor de DSCP como 26.
    #esxcli system module parameters set -m nmlx5_rdma -p "dscp_force=26"
  3. Verifique os parâmetros para verificar se as configurações estão corretas e definidas.
    esxcli system module parameters list -m nmlx5_core | grep 'trust_state\|pfcrx\|pfctx'
  4. Reinicie o host.