Popisuje postup instalace a aktivace virtuálního zařízení Edge v prostředí KVM s použitím konfiguračního souboru cloud-init.

Pokud se rozhodnete použít režim SR-IOV, povolte SR-IOV v prostředí KVM. Postup naleznete v tématu Aktivace SR-IOV na KVM.
Poznámka: Režim SR-IOV není podporován, pokud je virtuální zařízení Edge KVM nasazeno s topologií vysoké dostupnosti. U nasazení s vysokou dostupností se ujistěte, že funkce SR-IOV není pro daný pár zařízení Edge KVM povolena.
Spuštění VMware virtuálního zařízení Edge v prostředí KVM pomocí sady libvirt:
  1. Pomocí aplikace gunzip rozbalte soubor qcow2 do umístění pro bitové kopie (například /var/lib/libvirt/images).
  2. Pomocí SR-IOV a OpenVswitch vytvořte síťové fondy, které budete pro zařízení používat.

    Použití SR-IOV (Using SR-IOV)

    Následuje vzorová šablona síťového rozhraní specifická pro síťové karty Intel X710/XL710 využívající funkci SR-IOV.

        <interface type='hostdev' managed='yes'>
            <mac address='52:54:00:79:19:3d'/>
            <driver name='vfio'/>
            <source>
                <address type='pci' domain='0x0000' bus='0x83' slot='0x0a' function='0x0'/>
            </source>
            <model type='virtio'/>
        </interface>
    

    Použití OpenvSwitch

    <network> 
     <name>passthrough</name> 
     <model type='virtio'/> 
     <forward mode="bridge"/> 
     <bridge name="passthrough"/> 
     <virtualport type='openvswitch'> 
     </virtualport> 
     <vlan trunk='yes'> 
     <tag id='33' nativeMode='untagged'/> 
     <tag id='200'/> 
     <tag id='201'/> 
     <tag id='202'/> 
     </vlan> 
     </network> 
     Bridge 
     <network> 
     <name>passthrough</name> 
     <model type='virtio'/> 
     <forward mode="bridge"/> 
     </network> 
    <domain type='kvm'> 
     <name>vedge1</name> 
     <memory unit='KiB'>4194304</memory> 
     <currentMemory unit='KiB'>4194304</currentMemory> 
     <vcpu placement='static'>2</vcpu> 
     <resource> 
     <partition>/machine</partition> 
     </resource> 
     <os> 
     <type arch='x86_64' machine='pc-i440fx-trusty'>hvm</type> 
     <boot dev='hd'/> 
     </os> 
     <features> 
     <acpi/> 
     <apic/> 
     <pae/> 
     </features> 
    <!--
    Set the CPU mode to host model to leverage all the available features on the host CPU 
    -->
     <cpu mode='host-model'> 
     <model fallback='allow'/> 
     </cpu> 
     <clock offset='utc'/> 
     <on_poweroff>destroy</on_poweroff> 
     <on_reboot>restart</on_reboot> 
     <on_crash>restart</on_crash> 
     <devices> 
     <emulator>/usr/bin/kvm-spice</emulator> 
     <!-- 
     Below is the location of the qcow2 disk image 
     --> 
     <disk type='file' device='disk'> 
     <driver name='qemu' type='qcow2'/> 
     <source file='/var/lib/libvirt/images/edge-VC_KVM_GUEST-x86_64-2.3.0-18- R23-20161114-GA-updatable-ext4.qcow2'/> 
     <target dev='sda' bus='sata'/> 
     <address type='drive' controller='0' bus='0' target='0' unit='0'/> 
     </disk> 
     <!-- 
     If using cloud-init to boot up virtual edge, attach the 2nd disk as CD-ROM 
     --> 
     <disk type='file' device='cdrom'> 
     <driver name='qemu' type='raw'/> 
     <source file='/home/vcadmin/cloud-init/vedge1/seed.iso'/> 
     <target dev='sdb' bus='sata'/> 
     <readonly/> 
     <address type='drive' controller='1' bus='0' target='0' unit='0'/> 
     </disk> 
     <controller type='usb' index='0'> 
     <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x2'/> 
     </controller> 
     <controller type='pci' index='0' model='pci-root'/> 
     <controller type='sata' index='0'> 
     <address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/> 
     </controller> 
     <controller type='ide' index='0'> 
     <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x1'/> 
     </controller> 
     <!-- 
     The first two interfaces are for the default L2 interfaces, NOTE VLAN support just for SR-IOV and OpenvSwitch  
     --> 
     < interfacetype='network'>  
     < modeltype='virtio'/>  
     < sourcenetwork='LAN1'/>  
     < vlan>< tagid='#hole2_vlan#'/></ vlan>  
     < aliasname=LAN1/>  
     < addresstype='pci' domain='0x0000' bus='0x00' slot='0x12' function='0x0'/>  
     </ interface>  
     < interfacetype='network'>  
     < modeltype='virtio'/>  
     < sourcenetwork=LAN2/>  
     < vlan>< tagid='#LAN2_VLAN#'/></ vlan>  
     < aliasname='hostdev1'/>  
     < addresstype='pci' domain='0x0000' bus=' 0x00' slot='0x13' function='0x0'/>  
     </ interface>  
    <!--
     The next two interfaces are for the default L3 interfaces. Note that additional 6 routed interfaces 
    are supported for a combination of 8 interfaces total  
     --> 
     < interfacetype='network'>  
     < modeltype='virtio'/>  
     < sourcenetwork=WAN1/>  
     < vlan>< tagid='#hole2_vlan#'/></ vlan>  
     < aliasname=LAN1/>  
     < addresstype='pci' domain='0x0000' bus='0x00' slot='0x12' function='0x0'/>  
     </ interface>  
     < interfacetype='network'>  
     < modeltype='virtio'/>  
     < source network=LAN2/>  
     < vlan>< tag id='#LAN2_VLAN#'/></ vlan>  
     < aliasname='hostdev1'/>  
     < addresstype='pci' domain='0x0000' bus='0x00' slot='0x13' function='0x0'/>  
     </ interface>  
     <serial type='pty'> 
     <target port='0'/> 
     </serial> 
     <console type='pty'> 
     <target type='serial' port='0'/> 
     </console> 
     <input type='mouse' bus='ps2'/> 
     <input type='keyboard' bus='ps2'/> 
     <graphics type='vnc' port='-1' autoport='yes' listen='127.0.0.1'> 
     <listen type='address' address='127.0.0.1'/> 
     </graphics> 
     <sound model='ich6'> 
     <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/> 
     </sound> 
     <video> 
     <model type='cirrus' vram='9216' heads='1'/> 
     <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0'/> 
     </video> 
     <memballoon model='virtio'> 
     <address type='pci' domain='0x0000' bus='0x00' slot='0x06' function='0x0'/> 
     </memballoon> 
     </devices> 
     </domain>             
             
  3. Uložte doménový soubor XML, který definuje virtuální počítač (například vedge1.xml vytvořený v kroku 2).
  4. Virtuální počítač spusťte provedením následujících kroků:
    1. Vytvořte virtuální počítač.
      virsh define vedge1.xml
    2. Spusťte virtuální počítač.
      virsh start vedge1
    Poznámka: vedge1 je název virtuálního stroje definovaný elementem <name> v souboru XML domény. vedge1 nahraďte názvem, který použijete u elementu <name>.
  5. Pokud používáte režim SR-IOV, po spuštění virtuálního počítače upravte následující parametry použitých virtuálních funkcí:
    1. Vypněte kontrolu spoofingu.
      ip link set eth1 vf 0 spoofchk off
    2. Aktivujte důvěryhodný režim.
      ip link set dev eth1 vf 0 trust on
    3. Podle potřeby nastavte síť VLAN.
      ip link set eth1 vf 0 vlan 3500
    Poznámka: Krok konfigurace virtuálních funkcí se v případě režimu OpenVSwitch (OVS) nepoužívá
  6. Virtuální počítač otevřete z konzoly.
    virsh list
    Id Name State
    ----------------------------------------------------
    25 test_vcg running
    velocloud@KVMperf2$ virsh console 25
    Connected to domain test_vcg
    Escape character is ^]

Soubor cloud-init již zahrnuje aktivační klíč, který se generuje při vytváření nového virtuálního zařízení Edge v aplikaci SASE Orchestrator. Virtual Edge se nakonfiguruje podle nastavení konfigurace ze souboru cloud-init. Tato akce nastaví rozhraní při spuštění Virtual Edge. Jakmile bude virtuální zařízení Edge online, s pomocí aktivačního klíče se aktivuje aplikace SASE Orchestrator. IP adresa SASE Orchestrator a aktivační klíč byly definovány v souboru cloud-init.