Informazioni su come preparare l'ambiente ESXi per lo storage NVMe. I requisiti di configurazione potrebbero cambiare in base al tipo di trasporto NVMe utilizzato. Se si utilizza NVMe su RDMA (RoCE v2), oltre ai requisiti generali, è necessario configurare anche una rete Ethernet senza perdita di dati.
Requisiti per NVMe su PCIe
- Dispositivi di storage NVMe locali.
- Host ESXi compatibile.
- Hardware NVMe su scheda PCIe. Dopo aver installato la scheda, l'host ESXi la rileva e viene visualizzata in vSphere Client come scheda di storage (vmhba) con il protocollo indicato come PCIe. Non è necessario configurare la scheda.
Requisiti per NVMe su RDMA (RoCE v2)
- Array di storage NVMe con supporto per trasporto NVMe su RDMA (RoCE v2).
- Host ESXi compatibile.
- Commutatori Ethernet che supportano una rete senza perdita di dati.
- Scheda di rete che supporta RDMA su Converged Ethernet (RoCE v2). Per configurare la scheda, vedere Configurazione di NVMe su RDMA (RoCE v2) in ESXi.
- Scheda NVMe su RDMA software. Questo componente software deve essere abilitato nell'host ESXi e connesso a una scheda di rete RDMA appropriata. Per informazioni, vedere Aggiungere le schede software NVMe su RDMA o NVMe su TCP.
- Controller NVMe. È necessario aggiungere un controller dopo aver configurato la scheda del software NVMe su RDMA. Vedere Aggiunta di controller per NVMe su Fabrics.
- Ethernet senza perdita di dati. Vedere Configurazione di Ethernet senza perdita di dati per NVMe su RDMA.
Requisiti per NVMe su Fibre Channel
- Array di storage Fibre Channel che supporta NVMe. Per informazioni, vedere Utilizzo di ESXi con SAN Fibre Channel.
- Host ESXi compatibile.
- Scheda NVMe hardware. In genere, è una HBA Fibre Channel che supporta NVMe. Quando si installa la scheda di rete, l'host ESXi la rileva e viene visualizzata in vSphere Client come scheda Fibre Channel standard (vmhba) con il protocollo di storage indicato come NVMe. Non è necessario configurare la scheda NVMe hardware per utilizzarla.
- Controller NVMe. Non è necessario configurare il controller. Dopo aver installato la scheda NVMe hardware richiesta, si connette automaticamente a tutte le destinazioni e i controller che sono raggiungibili in questo momento. In un secondo momento, è possibile disconnettere i controller o connettere altri controller che non sono stati disponibili durante l'avvio dell'host. Vedere Aggiunta di controller per NVMe su Fabrics.
Requisiti per NVMe su TCP
- Array di storage NVMe con supporto del trasporto NVMe su TCP.
- Host ESXi compatibile.
- Una scheda Ethernet. Per configurare la scheda, vedere Configurazione di NVMe su TCP in ESXi.
- Scheda NVMe su TCP software. Questo componente software deve essere abilitato nell'host ESXi e connesso a una scheda di rete appropriata. Per ulteriori informazioni, vedere Aggiungere le schede software NVMe su RDMA o NVMe su TCP.
- Controller NVMe. È necessario aggiungere un controller dopo aver configurato la scheda del software NVMe su TCP. Vedere Aggiunta di controller per NVMe su Fabrics.
Supporto per storage condiviso VMware NVMe over Fabrics
- Non combinare tipi di trasporto per accedere allo stesso spazio dei nomi.
- Assicurarsi che l'host abbia i percorsi attivi. Gli spazi dei nomi non possono essere registrati finché non viene individuato il percorso attivo.
Funzionalità di storage condiviso | Storage SCSI su Fabric | Storage NVMe su Fabric |
---|---|---|
RDM | Supportato | Non supportato |
Dump principale | Supportato | Supportato |
Prenotazioni SCSI-2 | Supportato | Non supportato |
VMDK in cluster | Supportato | Supportato |
VMDK condiviso con flag multi-writer | Supportato | Supportato In vSphere 7.0 Update 1 e versioni successive. Per ulteriori informazioni, vedere l'articolo della Knowledge base. |
Virtual Volumes | Supportato | Supportato In vSphere 8.0 e versioni successive. Per ulteriori informazioni, vedere NVMe e Virtual Volumes in vSphere. |
Accelerazione hardware con plug-in VAAI | Supportato | Non supportato |
MPP predefinito | NMP | HPP (le destinazioni NVMe-oF non possono essere richieste da NMP) |
Configurazione di Ethernet senza perdita di dati per NVMe su RDMA
NVMe su RDMA in ESXi richiede una rete Ethernet senza perdita di dati.
Per stabilire reti senza perdita di dati, è possibile selezionare una delle impostazioni QoS disponibili.
Abilitazione del controllo del flusso di pausa globale
In questa configurazione di rete, assicurarsi che sia abilitato il controllo del flusso di pausa globale nelle porte del commutatore di rete. Assicurarsi inoltre che le NIC che supportano RDMA nella negoziazione automatica dell'host al controllo del flusso corretto vengano eseguite automaticamente.
Per controllare il controllo del flusso, eseguire il comando seguente:
#esxcli network nic get -n vmnicX Pause RX: true Pause TX: true
Se le opzioni del comando sopra riportate non sono impostate su True, eseguire il comando seguente.
#esxcli network nic pauseParams set -r true -t true -n vmnicX
Abilitazione del controllo del flusso prioritario
- Configurazione automatica. Applicare automaticamente la configurazione PFC DCB in RNIC dell'host, se il driver RNIC supporta DCB e DCBx.
È possibile verificare le impostazioni di DCB correnti eseguendo il comando seguente:
#esxcli network nic dcb status get -n vmnicX
- Configurazione manuale. In alcuni casi, i driver RNIC forniscono un metodo per configurare manualmente PFC DCB utilizzando parametri specifici dei driver. Per utilizzare questo metodo, vedere la documentazione del fornitore del driver specifico. Ad esempio, nel driver Mellanox ConnectX-4/5, è possibile impostare il valore di priorità PFC su 3 eseguendo il comando seguente e quindi riavviando l'host.
#esxcli system module parameters set -m nmlx5_core -p "pfctx=0x08 pfcrx=0x08"
Abilitazione di PFC basato su DSCP
- Abilitazione di PFC e della modalità di attendibilità DSCP.
#esxcli system module parameters set -m nmlx5_core -p "pfctx=0x08 pfcrx=0x08 trust_state=2"
- Impostare il valore di DSCP su 26
#esxcli system module parameters set -m nmlx5_rdma -p "dscp_force=26"
- Verificare i parametri per controllare se le impostazioni sono corrette e impostate.
esxcli system module parameters list -m nmlx5_core | grep 'trust_state\|pfcrx\|pfctx'
- Riavviare l'host.