Il processo di configurazione della scheda nell'host ESXi implica la configurazione del binding VMkernel per una scheda di rete TCP e quindi l'aggiunta di una scheda software per NVMe su TCP. In seguito, è possibile aggiungere un controller NVMe.

L'intero processo di configurazione include queste azioni.
Azione Descrizione
Nell'host ESXi, installare una scheda che supporti la tecnologia NVMe su TCP Ad esempio, i40en.
Configurazione del binding VMkernel per la scheda NVMe su TCP Il binding di VMkernel per NVMe su TCP implica la creazione di un commutatore virtuale e la connessione della scheda di rete fisica e della scheda VMkernel al commutatore virtuale. Tramite questa connessione, la scheda TCP viene associata alla scheda VMkernel. Nella configurazione, è possibile utilizzare un vSphere standard switch o un vSphere Distributed Switch.
Aggiungere la scheda software NVMe su TCP Utilizzare vSphere Client per abilitare le schede di storage software per NVMe su TCP.
Aggiunta di controller per NVMe su Fabrics Utilizzare vSphere Client per aggiungere un controller NVMe. Dopo aver aggiunto il controller, gli spazi dei nomi NVMe associati al controller diventano disponibili per l'host ESXi. I dispositivi di storage NVMe che rappresentano gli spazi dei nomi nell'ambiente ESXi vengono visualizzati nell'elenco dei dispositivi di storage.

Configurazione del binding VMkernel per la scheda NVMe su TCP

Il binding della porta per NVMe su TCP implica la creazione di un commutatore virtuale e la connessione della scheda di rete fisica e della scheda VMkernel al commutatore virtuale. Tramite questa connessione, la scheda TCP viene associata alla scheda VMkernel. Nella configurazione, è possibile utilizzare un vSphere standard switch o un vSphere Distributed Switch.

Il diagramma seguente illustra il binding porta per la scheda NVMe su TCP.

Questo diagramma illustra il binding della porta per la scheda NVMe su TCP.

Per ulteriori informazioni sulla creazione di commutatori, vedere Creazione di un vSphere Standard Switch o Creazione di un vSphere Distributed Switch nella documentazione Rete di vSphere.

Esempio di topologia di rete con NVMe su TCP

In questo esempio, due commutatori standard vSphere e due schede di rete (vmnic) nell'host forniscono alta disponibilità. Si connettono a due commutatori esterni.

Configurazione della topologia di rete per la scheda NVMe su TCP.

Configurazione del binding di VMkernel per la scheda TCP con un vSphere Standard Switch

È possibile configurare il binding di VMkernel per la scheda TCP utilizzando un vSphere Standard Switch e un uplink per ogni commutatore. Per configurare la connessione di rete, è necessario creare una scheda VMkernel virtuale per ciascuna scheda di rete fisica. È possibile utilizzare la mappatura 1:1 tra ogni scheda di rete virtuale e fisica.

Procedura

  1. Creare un vSphere Standard Switch con una scheda VMkernel e un componente di rete.
    1. In vSphere Client, selezionare l'host e fare clic sulla scheda Reti.
    2. Fare clic su Azioni > Aggiungi rete.
    3. Selezionare Scheda di rete VMkernel e fare clic su AVANTI.
    4. Selezionare Nuovo commutatore standard, quindi fare clic su AVANTI.
    5. In Schede assegnate fare clic su +.
      Viene visualizzato l'elenco delle schede fisiche disponibili.
    6. Selezionare la scheda fisica vmnic richiesta e fare clic su OK.
      Nota: Assicurarsi di selezionare la scheda di rete fisica corrispondente alla scheda TCP/ IP.
    7. In Impostazioni porta VMkernel immettere i valori richiesti.
      Se si utilizza la VLAN per il percorso di storage, immettere l'ID della VLAN.
    8. Nell'elenco Impostazioni IP, immettere le impostazioni IPv4 VMkernel.
    9. In Servizi disponibili, selezionare NVMe su TCP per i tag appropriati.
  2. Verificare che il commutatore sia configurato correttamente.
    1. Nella scheda Configura selezionare Commutatori virtuali in Rete.
    2. Espandere il commutatore e verificarne la configurazione.

      L'illustrazione mostra che la scheda di rete fisica e la scheda VMkernel sono connessi al commutatore standard vSphere. Tramite questa connessione, la scheda TCP è associata alla scheda VMkernel.

      La figura mostra un vSphere Standard Switch che connette la scheda di rete fisica e la scheda VMkernel.

  3. Impostare i criteri di raggruppamento NIC per il commutatore standard vSphere.
    Nota: La scheda NVMe su TCP non supporta funzionalità di raggruppamento delle NIC come il failover e il bilanciamento del carico. Per queste funzionalità si basa sui percorsi multipli di storage. Tuttavia, se è necessario configurare il raggruppamento delle NIC per altri carichi di lavoro di rete nell'uplink per la scheda NVMe su TCP, eseguire i passaggi seguenti.
    1. Fare clic sulla scheda Configura e selezionare Commutatori virtuali in Rete.
    2. Selezionare la scheda VMkernel appropriata.
    3. Dal menu di scelta rapida, fare clic su Modifica impostazioni.
    4. Selezionare Raggruppamento e failover.
    5. In Schede attive spostare la scheda fisica richiesta vmnic.
    6. In Schede in standby > Ordine di failover, spostare le altre schede fisiche.
    7. Impostare un bilanciamento del carico appropriato e altre proprietà.
    8. Ripetere i passaggi per configurare le schede VMkernel aggiuntive.
    Per verificare che la scheda sia configurata, fare clic sulla scheda Configura e selezionare schede VMkernel.

Configurazione del binding di VMkernel per la scheda TCP con un vSphere Distributed Switch

È possibile configurare il binding porta di VMkernel per la scheda TCP utilizzando un vSphere Distributed Switch e un uplink per commutatore. Per configurare la connessione di rete, è necessario creare una scheda VMkernel virtuale per ciascuna scheda di rete fisica. È possibile utilizzare la mappatura 1:1 tra ogni scheda di rete virtuale e fisica.

Procedura

  1. Creare un vSphere Distributed Switch con una scheda VMkernel e il componente di rete.
    1. In vSphere Client, selezionare Data center e fare clic sulla scheda Reti.
    2. Fare clic su Azioni e selezionare Commutatore distribuito > Nuovo commutatore distribuito.
    3. Selezionare un nome per il commutatore.
      Assicurarsi che la posizione del data center sia presente all'interno dell'host e fare clic su Avanti.
    4. Selezionare una versione di ESXi compatibile e fare clic su Avanti.
    5. Immettere il numero richiesto di uplink e fare clic su Fine.
  2. Aggiungere uno o più host al commutatore virtuale distribuito.
    1. In vSphere Client, selezionare Data center e fare clic su Distributed Switch.
      Viene visualizzato l'elenco di DSwitch disponibili.
    2. Fare clic con il pulsante destro del mouse sul DSwitch e scegliere Aggiungi e gestisci host dal menu.
    3. Selezionare Aggiungi host e fare clic su Avanti.
    4. Selezionare l'host e fare clic su Avanti.
    5. Selezionare Assegna uplink.
    6. Immettere l'uplink pertinente per assegnare la vmnic.
    7. Assegnare una scheda VMkernel e fare clic su Avanti.
    8. In vSphere Client, selezionare il DSwitch e fare clic sulla scheda Porte.
      Qui è possibile visualizzare gli uplink creati per il commutatore.
  3. Creare gruppi di porte distribuiti per il percorso di storage NVMe su TCP.
    1. In vSphere Client selezionare il DSwitch necessario.
    2. Fare clic su Azioni e selezionare Gruppo di porte distribuite > Nuovo gruppo di porte distribuite.
    3. In Configura impostazioni, immettere le proprietà generali del gruppo di porte.
      Se è stata configurata una VLAN specifica, aggiungerla nell'ID VLAN.
      Nota: Se la VLAN non viene configurata correttamente, potrebbero verificarsi problemi di connettività di rete.
  4. Configurare le schede VMkernel.
    1. In vSphere Client, espandere l'elenco DSwitch e selezionare il gruppo di porte distribuite.
    2. Fare clic su Azioni > Aggiungi schede VMkernel.
    3. Nella finestra di dialogo Seleziona host membri selezionare l'host e fare clic su OK.
    4. Nella finestra di dialogo Configura scheda VMkernel, verificare che l'MTU corrisponda all'MTU del commutatore.
    5. Fare clic su Fine.
    6. Ripetere il passaggio b e il passaggio c per aggiungere più NIC con supporto TCP.
  5. Impostare i criteri di raggruppamento NIC per i gruppi di porte distribuite.
    Nota: La scheda NVMe su TCP non supporta funzionalità di raggruppamento delle NIC come il failover e il bilanciamento del carico. Per queste funzionalità si basa sui percorsi multipli di storage. Tuttavia, se è necessario configurare il raggruppamento delle NIC per altri carichi di lavoro di rete nell'uplink per la scheda NVMe su TCP, eseguire i passaggi seguenti.
    1. In Gruppo di porte distribuite fare clic su Azioni > Modifica impostazioni.
    2. Fare clic su Raggruppamento e failover e verificare gli uplink attivi.
    3. Assegnare un uplink come Attivo per il gruppo di porte e l'altro uplink come Non usato.
      Ripetere il passaggio c per ogni gruppo di porte creato.

Operazioni successive

Dopo aver completato la configurazione, fare clic su Configura e verificare se la scheda della scheda fisica nell'host elenca il DVSwitch per le NIC selezionate.

Aggiungere le schede software NVMe su RDMA o NVMe su TCP

ESXi supporta le schede software NVMe su RDMA e NVMe su TCP. Utilizzare vSphere Client per aggiungere le schede di storage software per NVMe su RDMA o NVMe su TCP.

Prerequisiti

Procedura

  1. In vSphere Client, passare all'host ESXi.
  2. Fare clic sulla scheda Configura.
  3. In Storage, fare clic su Schede di storage, quindi sull'icona Aggiungi scheda software.
  4. Selezionare il tipo di scheda come richiesto.
    • NVMe su scheda RDMA
    • NVMe su scheda TCP
  5. In base alla selezione effettuata nel passaggio 4, selezionare una scheda RDMA o una scheda di rete TCP (vmnic) appropriata nel menu a discesa.
    Nota: Se viene visualizzato un messaggio di errore che impedisce di creare la scheda software, assicurarsi che il binding VMkernel per la scheda sia configurato correttamente. Per ulteriori informazioni, vedere Configurazione del binding VMkernel per la scheda RDMA e Configurazione del binding VMkernel per la scheda NVMe su TCP.

risultati

Le schede software NVMe su RDMA e NVMe su TCP vengono visualizzate nell'elenco come schede di storage vmhba. È possibile rimuovere le schede se è necessario liberare la scheda di rete RDMA o TCP sottostante per altri scopi. Vedere Rimozione di schede software NVMe dall'host ESXi.

Aggiunta di controller per NVMe su Fabrics

Utilizzare vSphere Client per aggiungere un controller NVMe. Dopo aver aggiunto il controller, gli spazi dei nomi NVMe associati al controller diventano disponibili per l'host ESXi. I dispositivi di storage NVMe che rappresentano gli spazi dei nomi nell'ambiente ESXi vengono visualizzati nell'elenco dei dispositivi di storage.

Prerequisiti

Nota: Con NVMe su Fibre Channel, una volta installata la scheda necessaria, si connette automaticamente a tutte le destinazioni raggiungibili al momento. In un secondo momento, è possibile riconfigurare l'adattatore e disconnetterne i controller o connettere altri controller che non erano disponibili durante l'avvio dell'host.

Procedura

  1. In vSphere Client, passare all'host ESXi.
  2. Fare clic sulla scheda Configura.
  3. In Storage, fare clic su Schede di storage, quindi selezionare la scheda (vmhba#) da configurare.
  4. Fare clic sulla scheda Controller e su Aggiungi controller.
  5. Nella finestra di dialogo Aggiungi controller selezionare uno dei metodi di individuazione seguenti.
    Opzione Descrizione
    Automaticamente Questa opzione indica che l'host può individuare automaticamente i controller e accettare la connessione a qualsiasi controller disponibile.
    1. Specificare i seguenti parametri per l'individuazione dei controller.
      • Per NVMe su RDMA (RoCE v2), l'indirizzo IP e il numero di porta di trasporto.
      • Per NVMe su TCP, l'indirizzo IP, il numero della porta di trasporto e il parametro digest.
    2. Fare clic su Individua controller.
    3. Nell'elenco dei controller, selezionare il controller da utilizzare.
    Manualmente Con questo metodo, è necessario immettere manualmente i dettagli del controller. L'host richiede una connessione a un controller specifico utilizzando i parametri specificati:
    • NQN sottosistema
    • Identificazione della porta di destinazione.
      • Per NVMe su RDMA (RoCE v2), l'indirizzo IP e il numero di porta di trasporto (facoltativo).
      • Per NVMe su TCP, l'indirizzo IP, il numero della porta di trasporto (facoltativo) e il parametro digest (facoltativo).
      • Per NVMe su Fibre Channel, WorldWideNodeName e WorldWidePortName.
    • Dimensione coda amministratore. Un parametro facoltativo che specifica la dimensione della coda di amministratori del controller. Un valore predefinito è 16.
    • Timeout keep-alive. Parametro facoltativo da specificare in secondi il timeout keep-alive tra l'adattatore e il controller. Un valore di timeout predefinito è 60 secondi.
    Nota: Le dimensioni della coda di I/O e il numero della coda di I/O sono parametri facoltativi che possono essere impostati solo tramite esxcli.

risultati

Il controller viene visualizzato nell'elenco dei controller. L'host può ora individuare gli spazi dei nomi NVMe associati al controller. I dispositivi di storage NVMe che rappresentano gli spazi dei nomi nell'ambiente ESXi vengono visualizzati nell'elenco dei dispositivi di storage di vSphere Client.