In questa sezione viene descritto come installare e attivare l'Edge virtuale in KVM utilizzando un file di configurazione cloud-init.

Se si decide di utilizzare la modalità SR-IOV, abilitare SR-IOV in KVM. Per la procedura, vedere Attivazione di SR-IOV in KVM.
Nota: La modalità SR-IOV non è supportata se l'Edge virtuale KVM viene distribuito con una topologia ad alta disponibilità. Per le distribuzioni ad alta disponibilità, assicurarsi che SR-IOV non sia abilitato per la coppia di Edge KVM.
Per eseguire l'Edge virtuale di VMware in KVM utilizzando libvirt:
  1. Utilizzare gunzip per estrarre il file qcow2 nella posizione dell'immagine (ad esempio /var/lib/libvirt/images).
  2. Creare i pool di reti che si intende utilizzare per il dispositivo, utilizzando SR-IOV e OpenVswitch.

    Utilizzo di SR-IOV (Using SR-IOV)

    Di seguito è riportato un esempio di modello di interfaccia di rete specifico per le schede NIC Intel X710/XL710 con SR-IOV.

        <interface type='hostdev' managed='yes'>
            <mac address='52:54:00:79:19:3d'/>
            <driver name='vfio'/>
            <source>
                <address type='pci' domain='0x0000' bus='0x83' slot='0x0a' function='0x0'/>
            </source>
            <model type='virtio'/>
        </interface>
    

    Utilizzo di OpenVSwitch (Using OpenVSwitch)

    <network> 
     <name>passthrough</name> 
     <model type='virtio'/> 
     <forward mode="bridge"/> 
     <bridge name="passthrough"/> 
     <virtualport type='openvswitch'> 
     </virtualport> 
     <vlan trunk='yes'> 
     <tag id='33' nativeMode='untagged'/> 
     <tag id='200'/> 
     <tag id='201'/> 
     <tag id='202'/> 
     </vlan> 
     </network> 
     Bridge 
     <network> 
     <name>passthrough</name> 
     <model type='virtio'/> 
     <forward mode="bridge"/> 
     </network> 
    <domain type='kvm'> 
     <name>vedge1</name> 
     <memory unit='KiB'>4194304</memory> 
     <currentMemory unit='KiB'>4194304</currentMemory> 
     <vcpu placement='static'>2</vcpu> 
     <resource> 
     <partition>/machine</partition> 
     </resource> 
     <os> 
     <type arch='x86_64' machine='pc-i440fx-trusty'>hvm</type> 
     <boot dev='hd'/> 
     </os> 
     <features> 
     <acpi/> 
     <apic/> 
     <pae/> 
     </features> 
    <!--
    Set the CPU mode to host model to leverage all the available features on the host CPU 
    -->
     <cpu mode='host-model'> 
     <model fallback='allow'/> 
     </cpu> 
     <clock offset='utc'/> 
     <on_poweroff>destroy</on_poweroff> 
     <on_reboot>restart</on_reboot> 
     <on_crash>restart</on_crash> 
     <devices> 
     <emulator>/usr/bin/kvm-spice</emulator> 
     <!-- 
     Below is the location of the qcow2 disk image 
     --> 
     <disk type='file' device='disk'> 
     <driver name='qemu' type='qcow2'/> 
     <source file='/var/lib/libvirt/images/edge-VC_KVM_GUEST-x86_64-2.3.0-18- R23-20161114-GA-updatable-ext4.qcow2'/> 
     <target dev='sda' bus='sata'/> 
     <address type='drive' controller='0' bus='0' target='0' unit='0'/> 
     </disk> 
     <!-- 
     If using cloud-init to boot up virtual edge, attach the 2nd disk as CD-ROM 
     --> 
     <disk type='file' device='cdrom'> 
     <driver name='qemu' type='raw'/> 
     <source file='/home/vcadmin/cloud-init/vedge1/seed.iso'/> 
     <target dev='sdb' bus='sata'/> 
     <readonly/> 
     <address type='drive' controller='1' bus='0' target='0' unit='0'/> 
     </disk> 
     <controller type='usb' index='0'> 
     <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x2'/> 
     </controller> 
     <controller type='pci' index='0' model='pci-root'/> 
     <controller type='sata' index='0'> 
     <address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/> 
     </controller> 
     <controller type='ide' index='0'> 
     <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x1'/> 
     </controller> 
     <!-- 
     The first two interfaces are for the default L2 interfaces, NOTE VLAN support just for SR-IOV and OpenvSwitch  
     --> 
     < interfacetype='network'>  
     < modeltype='virtio'/>  
     < sourcenetwork='LAN1'/>  
     < vlan>< tagid='#hole2_vlan#'/></ vlan>  
     < aliasname=LAN1/>  
     < addresstype='pci' domain='0x0000' bus='0x00' slot='0x12' function='0x0'/>  
     </ interface>  
     < interfacetype='network'>  
     < modeltype='virtio'/>  
     < sourcenetwork=LAN2/>  
     < vlan>< tagid='#LAN2_VLAN#'/></ vlan>  
     < aliasname='hostdev1'/>  
     < addresstype='pci' domain='0x0000' bus=' 0x00' slot='0x13' function='0x0'/>  
     </ interface>  
    <!--
     The next two interfaces are for the default L3 interfaces. Note that additional 6 routed interfaces 
    are supported for a combination of 8 interfaces total  
     --> 
     < interfacetype='network'>  
     < modeltype='virtio'/>  
     < sourcenetwork=WAN1/>  
     < vlan>< tagid='#hole2_vlan#'/></ vlan>  
     < aliasname=LAN1/>  
     < addresstype='pci' domain='0x0000' bus='0x00' slot='0x12' function='0x0'/>  
     </ interface>  
     < interfacetype='network'>  
     < modeltype='virtio'/>  
     < source network=LAN2/>  
     < vlan>< tag id='#LAN2_VLAN#'/></ vlan>  
     < aliasname='hostdev1'/>  
     < addresstype='pci' domain='0x0000' bus='0x00' slot='0x13' function='0x0'/>  
     </ interface>  
     <serial type='pty'> 
     <target port='0'/> 
     </serial> 
     <console type='pty'> 
     <target type='serial' port='0'/> 
     </console> 
     <input type='mouse' bus='ps2'/> 
     <input type='keyboard' bus='ps2'/> 
     <graphics type='vnc' port='-1' autoport='yes' listen='127.0.0.1'> 
     <listen type='address' address='127.0.0.1'/> 
     </graphics> 
     <sound model='ich6'> 
     <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/> 
     </sound> 
     <video> 
     <model type='cirrus' vram='9216' heads='1'/> 
     <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0'/> 
     </video> 
     <memballoon model='virtio'> 
     <address type='pci' domain='0x0000' bus='0x00' slot='0x06' function='0x0'/> 
     </memballoon> 
     </devices> 
     </domain>             
             
  3. Salvare il file XML del dominio che definisce la macchina virtuale (ad esempio vedge1.XML creato nel passaggio 2).
  4. Avviare la macchina virtuale effettuando i seguenti passaggi:
    1. Creare una macchina virtuale.
      virsh define vedge1.xml
    2. Avviare la macchina virtuale.
      virsh start vedge1
    Nota: vedge1 è il nome della macchina virtuale definita nell'elemento <name> del file XML del dominio. Sostituire vedge1 con il nome specificato nell'elemento <name>.
  5. Se si utilizza la modalità SR-IOV, dopo aver avviato la macchina virtuale, impostare quanto segue sulle funzioni virtuali utilizzate:
    1. Impostare la verifica dello spoofing su off.
      ip link set eth1 vf 0 spoofchk off
    2. Impostare la modalità attendibile su on.
      ip link set dev eth1 vf 0 trust on
    3. Impostare la VLAN, se richiesto.
      ip link set eth1 vf 0 vlan 3500
    Nota: Il passaggio di configurazione delle funzioni virtuali non è applicabile per la modalità OpenVSwitch (OVS).
  6. Accedere alla macchina virtuale tramite la console.
    virsh list
    Id Name State
    ----------------------------------------------------
    25 test_vcg running
    velocloud@KVMperf2$ virsh console 25
    Connected to domain test_vcg
    Escape character is ^]

Cloud-init include già la chiave di attivazione, che è stata generata durante la creazione di un nuovo Edge virtuale in SASE Orchestrator. L'Edge virtuale è configurato con le impostazioni di configurazione del file cloud-init. In questo modo le interfacce verranno configurate all'accensione dell'Edge virtuale. Una volta che l'Edge virtuale è online, verrà attivato con SASE Orchestrator utilizzando la chiave di attivazione. L'indirizzo IP e la chiave di attivazione di SASE Orchestrator sono stati definiti nel file cloud-init.