vSphere IaaS control plane 환경의 ESXi 호스트에 하나 이상의 NVIDIA GRID GPU 그래픽 디바이스가 있는 경우 NVIDIA GRID vGPU(가상 GPU) 기술을 사용하도록 VM을 구성할 수 있습니다. ESXi 호스트의 다른 PCI 디바이스를 패스스루 모드의 VM에서 사용할 수 있도록 구성할 수도 있습니다.

vSphere IaaS control plane에 vGPU가 있는 VM 배포

NVIDIA GRID GPU 그래픽 디바이스는 CPU에 과부하를 주지 않은 상태로 복잡한 그래픽 작업을 고성능으로 실행 및 최적화하기 위해 설계되었습니다. NVIDIA GRID vGPU는 여러 VM 간에 물리적 단일 GPU를 별도의 vGPU 지원 패스스루 디바이스로 공유하여 뛰어난 그래픽 성능, 비용 효율성 및 확장성을 제공합니다.

고려 사항

NVIDIA vGPU를 사용하는 경우 다음 고려 사항이 적용됩니다.
  • 3개 영역 감독자는 vGPU가 있는VM을 지원하지 않습니다.
  • VM 서비스에서 관리되는 vGPU 디바이스가 있는 VM은 ESXi 호스트가 유지 보수 모드로 전환되면 자동으로 전원이 꺼집니다. 그러면 VM에서 실행되는 워크로드에 일시적으로 영향을 줄 수 있습니다. 호스트가 유지 보수 모드를 종료하면 VM의 전원이 자동으로 켜집니다.
  • DRS는 클러스터의 호스트 전반에 너비 우선 방식으로 vGPU VM을 분산합니다. 자세한 내용은 "vSphere 리소스 관리" 가이드에서 vGPU VM의 DRS 배치를 참조하십시오.

요구 사항

NVIDIA vGPU를 구성하려면 다음 요구 사항을 따릅니다.

  • VMware 호환성 가이드에서 ESXi가 지원되는지 확인하고 벤더에 문의하여 호스트가 전원 및 구성 요구 사항을 충족하는지 확인합니다.
  • Shared Direct 모드에서 하나 이상의 디바이스를 사용하여 ESXi 호스트 그래픽 설정을 구성합니다. "vSphere 리소스 관리" 설명서에서 호스트 그래픽 구성을 참조하십시오.
  • vGPU 디바이스가 있는 VM에 사용하는 컨텐츠 라이브러리에는 부팅 모드가 EFI로 설정된 이미지(예: CentOS)가 포함되어야 합니다.
  • NVIDIA vGPU 소프트웨어를 설치합니다. NVIDIA는 다음 구성 요소를 포함하는 vGPU 소프트웨어 패키지를 제공합니다.

    자세한 내용은 해당 NVIDIA 가상 GPU 소프트웨어 설명서를 참조하십시오.

vSphere Client를 사용하여 VM 클래스에 vGPU 디바이스 추가

기존 VM 클래스를 생성하거나 편집하여 NVIDIA GRID vGPU(가상 GPU)를 추가합니다.

사전 요구 사항

필요한 권한:
  • 네임스페이스.클러스터 전체 구성 수정
  • 네임스페이스.네임스페이스 구성 수정
  • 가상 시스템 클래스.가상 시스템 클래스 관리

프로시저

  1. 기존 VM 클래스를 생성하거나 편집합니다.
    옵션 작업
    새 VM 클래스 생성
    1. vSphere Client 홈 메뉴에서 워크로드 관리를 선택합니다.
    2. 서비스 탭을 클릭하고 VM 서비스 창에서 관리를 클릭합니다.
    3. VM 서비스 페이지에서 VM 클래스를 클릭하고 VM 클래스 생성을 클릭합니다.
    4. 표시되는 메시지를 따릅니다.
    VM 클래스 편집
    1. vSphere Client 홈 메뉴에서 워크로드 관리를 선택합니다.
    2. 서비스 탭을 클릭하고 VM 서비스 창에서 관리를 클릭합니다.
    3. VM 서비스 페이지에서 VM 클래스를 클릭합니다.
    4. 기존 VM 클래스 창에서 관리를 클릭하고 편집을 클릭합니다.
    5. 표시되는 메시지를 따릅니다.
  2. 구성 페이지에서 가상 하드웨어 탭을 클릭하고 새 디바이스 추가를 클릭한 후 PCI 디바이스를 선택합니다.
    [새 디바이스 추가] 메뉴의 [PCI 디바이스] 옵션
  3. 디바이스 선택 페이지의 사용 가능한 디바이스 목록에서 NVIDIA GRID vGPU를 선택하고 선택을 클릭합니다.
    디바이스가 가상 하드웨어 페이지에 나타납니다.
  4. 고급 매개 변수 탭을 클릭하고 다음 특성 및 값으로 매개 변수를 설정합니다.
    옵션 설명
    매개 변수
    pciPassthru0.cfg.enable_uvm 1
    pciPassthru1.cfg.enable_uvm 1
    고급 매개 변수에 대한 특성 및 값 추가
  5. 구성을 검토하고 마침을 클릭합니다.

결과

VM 클래스 창의 PCI 디바이스 태그는 VM 클래스가 vGPU 지원임을 나타냅니다.

VM 클래스 창의 PCI 디바이스 태그

데이터 센터 CLI를 사용하여 VM 클래스에 vGPU 디바이스 추가

vSphere Client 외에도 DCLI(데이터 센터 CLI) 명령을 사용하여 vGPU 및 고급 구성을 추가할 수 있습니다.

DCLI 명령에 대한 자세한 내용은 데이터 센터 CLI를 사용하여 VM 클래스 생성 및 관리 항목을 참조하십시오.

프로시저

  1. 루트 사용자 계정을 사용하여 vCenter Server에 로그인하고 dcli +i를 입력하여 대화형 모드에서 DCLI를 사용합니다.
  2. 다음 명령을 실행하여 VM 클래스를 생성합니다.
    다음 예에서 " my-class" VM 클래스에는 CPU 2개, 메모리 2048MB, 샘플 vGPU 프로파일 2개( mockup-vmiop-8cmockup-vmiop)가 포함된 VirtualMachineConfigSpec이 포함됩니다. extraConfig 필드 pciPassthru0.cfg.enable_uvmpciPassthru1.cfg.enable_uvm은 1로 설정됩니다.
    dcli +i +show-unreleased com vmware vcenter namespacemanagement virtualmachineclasses create --id my-class --cpu-count 2 --memory-mb 2048 --config-spec '{"_typeName":"VirtualMachineConfigSpec","deviceChange":[{"_typeName":"VirtualDeviceConfigSpec","operation":"add","device":{"_typeName":"VirtualPCIPassthrough","key":20,"backing":{"_typeName":"VirtualPCIPassthroughVmiopBackingInfo","vgpu":"mockup-vmiop-8c"}}},{"_typeName":"VirtualDeviceConfigSpec","operation":"add","device":{"_typeName":"VirtualPCIPassthrough","key":20,"backing":{"_typeName":"VirtualPCIPassthroughVmiopBackingInfo","vgpu":"mockup-vmiop"}}}],"extraConfig":[{"_typeName":"OptionValue","key":"pciPassthru0.cfg.enable_uvm","value":{"_typeName":"string","_value":"1"}},{"_typeName":"OptionValue","key":"pciPassthru1.cfg.enable_uvm","value":{"_typeName":"string","_value":"1"}}]}'
    

vSphere IaaS control plane의 VM에 NVIDIA 게스트 드라이버 설치

VM에 vGPU용으로 구성된 PCI 디바이스가 포함된 경우 vSphere IaaS control plane 환경에서 VM을 생성하고 부팅한 후에 NVIDIA vGPU 그래픽 드라이버를 설치하여 GPU 작업이 완전하게 사용되도록 설정합니다.

사전 요구 사항

  • vGPU를 사용하여 VM을 배포합니다. VM YAML 파일이 vGPU 정의가 있는 VM 클래스를 참조하는지 확인합니다. vSphere IaaS control plane에서 가상 시스템 배포의 내용을 참조하십시오.
  • NVIDIA 다운로드 사이트에서 vGPU 소프트웨어 패키지를 다운로드하고 패키지 압축을 풀고 게스트 드라이브 구성 요소를 준비했는지 확인합니다. 자세한 내용은 해당 NVIDIA 가상 GPU 소프트웨어 설명서를 참조하십시오.
    참고: 드라이버 구성 요소의 버전은 vSphere 관리자가 ESXi 호스트에 설치한 vGPU Manager의 버전과 일치해야 합니다.

프로시저

  1. NVIDIA vGPU 소프트웨어 Linux 드라이버 패키지(예: NVIDIA-Linux-x86_64-version-grid.run)를 게스트 VM에 복사합니다.
  2. 드라이버 설치 관리자를 실행하기 전에 모든 애플리케이션을 종료합니다.
  3. NVIDIA vGPU 드라이버 설치 관리자를 시작합니다.
    sudo ./NVIDIA-Linux-x86_64-version-grid.run
  4. NVIDIA 소프트웨어 라이센스 계약에 동의하고 를 선택하여 X 구성 설정을 자동으로 업데이트합니다.
  5. 드라이버가 설치되었는지 확인합니다.
    예를 들면 다음과 같습니다.
    ~$ nvidia-smi
    Wed May 19 22:15:04 2021
    +-----------------------------------------------------------------------------+
    | NVIDIA-SMI 460.63       Driver Version: 460.63       CUDA Version: 11.2     |
    |-------------------------------+----------------------+----------------------+
    | GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
    | Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
    |                               |                      |               MIG M. |
    |===============================+======================+======================|
    |   0  GRID V100-4Q        On   | 00000000:02:00.0 Off |                  N/A|
    | N/AN/AP0    N/A/  N/A|    304MiB /  4096MiB |      0%      Default |
    |                               |                      |                  N/A|
    +-------------------------------+----------------------+----------------------+
    
    +-----------------------------------------------------------------------------+
    | Processes:                                                                  |
    |  GPU   GI   CI        PID   Type   Process name                  GPU Memory |
    |        ID   ID                                                   Usage      |
    |=============================================================================|
    |  No running processes found                                                 |
    +-----------------------------------------------------------------------------+

vSphere IaaS control plane에 PCI 디바이스가 있는 VM 배포

vGPU 외에도 패스스루 모드의 VM에서 사용할 수 있도록 ESXi 호스트에서 다른 PCI 디바이스를 구성할 수 있습니다.

vSphere IaaS control plane는 동적 DirectPath I/O 디바이스를 지원합니다. 동적 DirectPath I/O를 사용하면 VM이 호스트에 연결된 물리적 PCI 및 PCIe 디바이스에 직접 액세스할 수 있습니다. 동적 DirectPath I/O를 사용하여 VM에 여러 개의 PCI 패스스루 디바이스를 할당할 수 있습니다. 각 패스스루 디바이스는 해당 PCI 벤더 및 디바이스 식별자로 지정할 수 있습니다.
참고: PCI 패스스루 디바이스에 대한 동적 DirectPath I/O를 구성할 때 PCI 디바이스를 호스트에 연결하고 패스스루에 사용 가능한 것으로 표시합니다. " vSphere 네트워킹" 설명서에서 호스트의 네트워크 디바이스에 대한 패스스루 사용을 참조하십시오.