VMware ESXi 6.0 업데이트 1b 릴리스 정보

|

업데이트 날짜: 2016년 1월 7일

ESXi 6.0 업데이트 1b | 2016년 1월 7일 | ISO 빌드 3380124

이 릴리스 정보의 추가 사항 및 업데이트 사항을 확인하십시오.

릴리스 정보에 포함된 내용

릴리스 정보에는 다음과 같은 항목이 포함됩니다.

새로운 기능

  • ESXi 6.0 업데이트 1b는 이전에 지원된 호환성/상호 운용성에 영향을 미치지 않고 대부분의 vSphere 구성 요소를 위해 TLS 버전 1.1 및 1.2를 지원할 수 있습니다. TLS 버전 1.0만 계속 지원하는 일부 vSphere 구성 요소가 여기에 나열되어 있습니다.
    • vSphere Client
    • vCSA(vCenter Server Appliance)의 Virtual SAN Observer
    • vCSA의 Syslog
    • vCSA의 Auto Deploy
    • Auto Deploy/iPXE

    ESXi 6.0 업데이트 1b는 현재 위에 나열된 제품을 제외하고 모든 TLS 버전 1.0, 1.1 및 1.2을 지원합니다. 지원되는 TLS 프로토콜 목록은 기술 자료 문서 2136185를 참조하십시오.

  • NFS 4.1 클라이언트의 RPC 헤더 인증을 위해 키 길이가 128/256비트인 AES(Advanced Encryption Standard)에 대한 지원이 추가되었습니다.
    참고: 자세한 내용은 해결된 보안 문제 섹션을 참조하십시오.

  • 이 ESXi 6.0 업데이트 1b 릴리스에서는 해결된 문제 섹션에 설명된 문제가 해결되었습니다.

ESXi 6.0의 이전 릴리스

ESXi 6.0의 기능과 알려진 문제는 각 릴리스의 릴리스 정보에 설명되어 있습니다. 이전 릴리스의 ESXi 6.0에 대한 릴리스 정보는 다음과 같습니다.

국제화

VMware ESXi 6.0은 다음과 같은 언어로 제공됩니다.

  • 영어
  • 프랑스어
  • 독일어
  • 일본어
  • 한국어
  • 중국어 간체
  • 스페인어
  • 중국어 번체

vCenter Server, ESXi, vSphere Web Client, vSphere Client를 포함하여 VMware vSphere 6.0의 구성 요소에서는 ASCII가 아닌 입력을 사용할 수 없습니다.

호환성

ESXi, vCenter Server 및 vSphere Web Client 버전 호환성

VMware 제품 상호 운용성 매트릭스에는 ESXi, VMware vCenter Server, vSphere Web Client 및 선택적 VMware 제품을 포함한 VMware vSphere 구성 요소의 현재 버전과 이전 버전 사이의 호환성에 대한 자세한 내용이 나와 있습니다. ESXi 또는 vCenter Server를 설치하기 전에 VMware 제품 상호 운용성 매트릭스에서 지원되는 관리 및 백업 에이전트 관련 정보도 확인하십시오.

vSphere Web Client는 vCenter Server에 함께 패키지되어 있습니다. vSphere Client는 모듈 ISO 파일의 일부인 VMware vCenter 자동 실행 메뉴를 통해 설치할 수 있습니다.

ESXi의 하드웨어 호환성

vSphere 6.0와 호환되는 프로세서, 스토리지 디바이스, SAN 어레이 및 I/O 디바이스 목록을 보려면 VMware 호환성 가이드에 나와 있는 ESXi 6.0 정보를 참조하십시오.

ESXi의 디바이스 호환성

ESXi 6.0와 호환되는 디바이스를 확인하려면 VMware 호환성 가이드에서 ESXi 6.0 정보를 참조하십시오.

일부 디바이스는 ESXi 6.0에서 사용되지 않으며 더 이상 지원되지 않습니다. 업그레이드 프로세스를 수행하는 동안 디바이스 드라이버가 ESXi 6.0 호스트에 설치되고 디바이스 드라이버는 ESXi 6.0에서 계속 작동할 수 있지만 디바이스는 ESXi 6.0에서 지원되지 않습니다. ESXi 6.0에서 사용되지 않아서 더 이상 지원되지 않는 디바이스 목록은 KB 2087970을 참조하십시오.

ESXi의 타사 스위치 호환성

이제 VMware에서 vSphere 6.0을 통해 Cisco Nexus 1000V를 지원합니다. vSphere를 사용하려면 최소 NX-OS 릴리스 5.2(1)SV3(1.4)이 필요합니다. Cisco Nexus 1000V에 대한 자세한 내용은 Cisco 릴리스 정보를 참조하십시오. 이전 vSphere 릴리스와 마찬가지로, Ciscso Nexus 1000V AVS 모드는 지원되지 않습니다.

ESXi의 게스트 운영 체제 호환성

vSphere 6.0과 호환되는 게스트 운영 체제를 확인하려면 VMware 호환성 가이드에 나와 있는 ESXi 6.0 정보를 참조하십시오.

ESXi의 가상 시스템 호환성

ESX 3.x 이상(하드웨어 버전 4)과 호환되는 가상 시스템은 ESXi 6.0에서 지원됩니다. ESX 2.x 이상(하드웨어 버전 3)과 호환되는 가상 시스템은 지원되지 않습니다. ESXi 6.0에서 이와 같은 가상 시스템을 사용하려면 가상 시스템 호환성을 업그레이드하십시오. 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오.

이 릴리스의 설치 및 업그레이드

이 릴리스에 대한 설치 정보

ESXi 및 vCenter Server를 설치하고 구성하는 방법에 대한 지침은 vSphere 설치 및 설정 설명서를 참조하십시오.

설치는 간단하지만 여러 후속 구성 단계를 수행해야 합니다. 다음 설명서를 읽어 보십시오.

vSphere 6.0 권장 배포 모델

다음 두 가지 배포 모델만 사용하는 것이 좋습니다.

  • 내장형 Platform Services Controller가 있는 vCenter Server. 데이터 센터에 하나 이상의 독립형 vCenter Server 인스턴스를 배포해야 하는 경우 이 모델을 사용하는 것이 좋습니다. 이와 같은 내장형 Platform Services Controller가 있는 vCenter Server 모델 간 복제는 권장되지 않습니다.

  • 외부 Platform Services Controller가 있는 vCenter Server. 데이터 센터에서 여러 vCenter Server 인스턴스를 연결해야 하거나 Platform Services Controller의 설치 공간을 줄이려는 경우에만 이 모델을 사용하는 것이 좋습니다. 이와 같은 외부 Platform Services Controller가 있는 vCenter Server 모델 간에는 복제가 지원됩니다.

vCenter Server를 설치하고 구성하는 방법에 대한 지침은 vSphere 설치 및 설정 설명서를 참조하십시오.

vSphere 구성 요소를 업데이트하는 올바른 순서를 보려면 vSphere 6.0 및 호환되는 VMware 제품에 대한 업데이트 시퀀스를 참조하십시오.

또한 KB 2108548에서도 vCenter Server를 설치하고 구성하는 방법에 대한 지침을 참조할 수 있습니다.

vCenter 호스트 OS 정보

기술 자료 문서 KB 2091273을 참조하십시오.

외부 Platform Services Controller를 사용하는 vCenter Server 및 vCenter Server Appliance 배포의 백업 및 복원

vSphere 설치 및 설정 설명서에는 외부 Platform Services Controller를 사용하는 vCenter Server 및 vCenter Server Appliance 배포의 백업 및 복원이 제한된다고 명시되어 있지만 KB 2110294의 단계에 따르면 이러한 백업 및 복원 작업을 수행할 수 있습니다.

내장형 Platform Services Controller에서 외부 Platform Services Controller로 마이그레이션

내장형 Platform Services Controller가 있는 vCenter Server를 외부 Platform Services Controller가 있는 vCenter Server로 자동으로 마이그레이션할 수 없습니다. 이 마이그레이션 유틸리티에 대한 테스트가 완료되지 않았습니다.

vCenter Server를 설치하기 전에 원하는 배포 옵션을 결정합니다. 복제 설정에 vCenter Server가 둘 이상 필요한 경우에는 항상 외부 Platform Services Controller가 있는 vCenter를 배포합니다.

타사 솔루션 마이그레이션

타사 사용자 지정 항목을 사용한 업그레이드에 대한 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오. Image Builder를 사용하여 사용자 지정 ISO를 만드는 방법에 대한 자세한 내용은 vSphere 설치 및 설정 설명서를 참조하십시오.

지원되지 않는 CPU에 대해 허용되지 않는 업그레이드 및 설치

vSphere 6.0에서는 2006년 6월 이후(3사분기)에 출시된 프로세서만 지원합니다. vSphere 5.x에서 지원하는 프로세서와 비교해, vSphere 6.0에서는 더 이상 다음 프로세서를 지원하지 않습니다.

  • AMD Opteron 12xx 시리즈
  • AMD Opteron 22xx 시리즈
  • AMD Operton 82xx 시리즈

설치 또는 업그레이드를 진행하는 동안 설치 관리자는 호스트 CPU가 vSphere 6.0과 호환되는지 여부를 확인합니다. 호스트 하드웨어가 호환되지 않는 경우 보라색 화면이 나타나면서 비호환성 정보 메시지가 표시되며 vSphere 6.0 설치 프로세스가 중지됩니다.

이 릴리스에 대한 업그레이드 정보

vCenter Server 및 ESX/ESXi 호스트 업그레이드 방법에 대한 지침은 vSphere 업그레이드 설명서를 참조하십시오.

VMware vSphere 6.0의 오픈 소스 구성 요소

vSphere 6.0에서 배포되는 오픈 소스 소프트웨어 구성 요소에 적용되는 저작권 정보 및 라이센스는 http://www.vmware.com에서 확인할 수 있습니다. My VMware 계정으로 로그인해야 합니다. 그런 다음 다운로드 메뉴에서 vSphere를 선택합니다. 오픈 소스 탭에서는 최신 vSphere 릴리스에 소스 코드 또는 소스 코드 수정 사항을 사용하는 데 필요한 모든 GPL, LGPL 또는 기타 유사한 라이센스의 소스 파일도 다운로드할 수 있습니다.

제품 지원 고지 사항

  • vCenter Server 데이터베이스. vSphere 6.0 릴리스에서 Oracle 11g 및 12c가 vCenter Server Appliance용 외부 데이터베이스로 더 이상 사용되지 않습니다. vSphere 6.0에서는 Oracle 11g 및 12c가 외부 데이터베이스로 계속 지원됩니다. 향후 주요 릴리스에서는 Orace 11g 및 12c가 vCenter Server Appliance용 외부 데이터베이스로 더 이상 지원되지 않을 예정입니다.

  • vSphere Web Client. vSphere 6.0 Web Client에서, 더 이상 개체의 모니터링 탭에서 스토리지 보고서를 선택할 수 없습니다.

  • vSphere Client. vSphere 6.0 Client에서 더 이상 스토리지 보기 탭을 사용할 수 없습니다.

이 릴리스에 포함된 패치

이 릴리스에는 이 제품 출시 이전에 출시된 모든 ESXi 관련 공지가 포함됩니다. 개별 공지에 대한 자세한 내용은 VMware 패치 다운로드 페이지를 참조하십시오.

패치 릴리스 ESXi600-201601001에는 다음과 같은 개별 공지가 포함되어 있습니다.

ESXi600-201601401-BG: ESXi 6.0 esx-base vib 업데이트
ESXi600-201601402-BG: ESXi 6.0 tools-light vib 업데이트
ESXi600-201601403-BG: ESXi 6.0 ehci-ehci-hcd, misc-drivers vib 업데이트
ESXi600-201601404-BG: ESXi 6.0 net-tg3 vib 업데이트
ESXi600-201601405-BG: ESXi 6.0 net-e1000e vib 업데이트

패치 릴리스 ESXi600-201601001(보안 전용 빌드)에는 다음과 같은 개별 공지가 포함되어 있습니다.

ESXi600-201601101-SG: ESXi 6.0 esx-base vib 업데이트
ESXi600-201601102-SG: ESXi 6.0 tools-light vib 업데이트

패치 릴리스 ESXi600-201601001에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

ESXi-6.0.0-20160104001-standard
ESXi-6.0.0-20160104001-no-tools

패치 릴리스 ESXi600-201601001(보안 전용 빌드)에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

ESXi-6.0.0-20160101001s-standard
ESXi-6.0.0-20160101001s-no-tools

패치 및 업데이트 분류에 대한 자세한 내용은 KB 2014447을 참조하십시오.

해결된 문제

해결된 문제는 다음과 같이 분류됩니다.

라이센싱 문제
  • VFFS 데이터스토어를 생성하지 못함
    vCenter Server가 VFFS(Virtual Flash File System) 데이터스토어를 생성하지 못하며 다음과 유사한 오류 메시지가 표시됩니다.

    해당 작업을 수행할 수 있는 라이센스가 없습니다. 이 버전에 'vSphere Flash Read Cache' 기능 라이센스가 없습니다.

    VFRC(vSphere Flash Read Cache) 권한을 잘못 검사하기 때문에 이 문제가 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
네트워킹 문제
  • ESXi 6.0 호스트에서 VMware vShield App으로 보호되는 가상 시스템의 네트워크 연결이 끊김
    ESXi 6.0 호스트에서 vShield App Firewall 장치로 보호되는 가상 시스템의 네트워크 연결이 일시적으로 끊깁니다. vShield App Firewall 로그에 다음과 유사한 로그 메시지가 표시됩니다.

    YYYY-MM-DDTHH:MM:SS+00:00 vShield-FW-hostname.corp.local kernel: d0: tx hang
    YYYY-MM-DDTHH:MM:SS+00:00 vShield-FW-hostname.corp.local kernel: d0: resetting
    YYYY-MM-DDTHH:MM:SS+00:00 vShield-FW-hostname.corp.local kernel: d0: intr type 3, mode 0, 3 vectors allocated
    YYYY-MM-DDTHH:MM:SS+00:00 vShield-FW-hostname.corp.local kernel: RSS indirection table :

    이 문제는 이 릴리스에서 해결되었습니다. 자세한 내용은 기술 자료 문서 2128069를 참조하십시오.
  • ESXi 6.0에서는 모드를 에뮬레이션에서 UPT로 전환하려는 시도가 실패함
    ESXi 6.0에서는 모드를 에뮬레이션에서 UPT(Universal Pass-through)로 전환하려는 시도가 실패합니다. DirectPath I/O가 사용되지 않도록 설정되었음을 표시하는 메시지가 다음과 같이 vCenter Server에 표시됩니다.

    가상 시스템에 DirectPath I/O를 활성화하는 데 필요한 전체 메모리 예약이 없습니다.

    다음 메시지가 vmkernel.log 파일에 기록됩니다.

    YYYY-MM-DDTHH:MM:SS.820Z cpu11:1000046564)Vmxnet3: VMKDevCanEnterPT:3193: port 0x3000007: memory reservation 0 smaller than guest memory size 262144

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트에 대한 VM 지원 로그에서 로그를 수집하는 데 오랜 시간이 걸림
    액세스할 수 있는 모든 데이터스토어의 모든 .dvsData 폴더에서 불필요한 .dvsData 로그를 수집하기 때문에 vm-support 명령이 로그를 수집하는 데 시간이 오래 걸립니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 신호 11 오류로 인해 Hostd가 반복적으로 응답을 중지함
    dvSwitch에 대해 4개의 NIC(네트워크 인터페이스 컨트롤러)를 구성한 후 신호 11 오류로 인해 Hostd가 반복적으로 응답을 중지합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
스토리지 문제
  • ESXi 호스트를 부팅하는 데 시간이 오래 걸리며 VMW_SATP_ALUA SATP 모듈을 로드하지 못함
    LUN의 esx.conf 파일에 있는 오래된 LUN 항목이 PDL(영구적 디바이스 손실) 상태로 전환되므로 ESXi 호스트를 부팅하는 데 시간이 오래 걸리며 VMW_SATP_ALUA SATP(Storage Array Type Plug-In) 모듈을 로드하지 못할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • esxtop 유틸리티가 VAAI 지원 LUN의 DAVG/cmd 및 KAVG/cmd 통계를 잘못 보고함
    잘못된 계산으로 인해 esxtop 유틸리티가 DAVG/cmd(명령당 평균 디바이스 지연 시간) 및 KAVG/cmd(명령당 평균 ESXi VMkernel 지연 시간)에 대한 VAAI 지원 LUN 통계를 잘못 보고합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 빠르게 비워지는 VMDK의 확장으로 인해 VM에 액세스할 수 없음
    ESXi 6.0에서는 빠르게 비워지는 유형의 VMDK가 빠르게 비워지는 형식으로 확장하는 데 시간이 오래 걸리며 이로 인해 VM에 액세스할 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
Virtual SAN 문제
  • SSD에서 APD 디스크 오류가 발생한 후 연결이 끊긴 Virtual SAN 개체가 남아 있음
    SSD(Solid State Disk)에서 APD(모든 경로 다운) 디스크 오류가 발생한 후 연결이 끊긴 Virtual SAN 개체가 남아 있을 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • SSD/MD 디스크 파티션의 잘못된 메타데이터로 인해 디스크 그룹 검증이 실패할 수 있음
    Virtual SAN 디스크 그룹에서 디스크를 제거하려고 시도할 경우 SSD/MD 디스크 파티션의 잘못된 메타데이터로 인해 디스크 그룹 검증이 실패하기 때문에 자주색 진단 화면이 표시될 수 있습니다. vmkernel.log 파일에 다음과 유사한 오류 메시지가 기록됩니다.

    YYYY-MM-DDTHH:MM:SS.772Z cpu13:xxxxx)PLOG: PLOGRelogCleanup:445: RELOG complete uuid xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx lsn xxxxxxx numRelogged 0
    YYYY-MM-DDTHH:MM:SS.772Z cpu33:xxxxx opID=xxxxxxxx)World: 9728: PRDA 0xnnnnnnnnnnnn ss 0x0 ds 0x10b es 0x10b fs 0x0 gs 0x13b
    YYYY-MM-DDTHH:MM:SS.772Z cpu33:xxxxx opID=xxxxxxxx)World: 9730: TR 0xnnnn GDT 0xnnnnnnnnnnnn (0xnnnn) IDT 0xnnnnnnnnnnnn (0xfff)
    .
    .
    .

    이 문제는 이 릴리스에서 해결되었습니다.
  • Virsto 볼륨에서 구성 요소 I/O를 수행하는 동안 씬 구성 요소 파일에 공간을 새로 추가하면 디스크 용량 값이 잘못 표시됨
    구성 요소에서 I/O 작업을 수행하는 중에 새 공간이 씬 구성 요소 파일에 추가될 수 있습니다. Virsto 볼륨에 있는 구성 요소 파일의 경우 디스크 용량이 다시 계산되지 않으며 새 구성 요소가 생성될 때까지 이전 값이 게시됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • SSD 로그 정체 문제로 인해 Virtual SAN 클러스터 내의 VM 성능이 저하될 수 있음
    SSD(Solid State Disk) 로그 정체 문제로 인해 Virtual SAN 클러스터 내의 가상 시스템 성능이 저하될 수 있습니다. SSD에 대해 VSI(VMkernel System Information) 노드가 있는 경우 사용되는 로그 공간이 상당히 많으며 이는 감소되지 않음을 나타냅니다.

    이 문제는 이 릴리스에서 해결되었습니다.
보안 문제
  • NFS 4.1 클라이언트의 RPC 헤더 인증을 위해 키 길이가 128/256비트인 AES(Advanced Encryption Standard) 지원이 추가됨
    NFS 4.1 클라이언트의 RPC 헤더 인증을 위해 키 길이가 128/256비트인 AES(Advanced Encryption Standard)에 대한 지원이 추가되었습니다.
    참고: DES_CBC_MD5 암호화는 더 이상 NFS 4.1 클라이언트에서 지원되지 않습니다. AES 암호화가 사용되도록 설정되지 않거나 현재 어레이 펌웨어 버전이 AES 암호화를 지원하지 않으면 이 패치 업그레이드를 실행하기 전에 어레이 펌웨어를 업데이트하거나 AES 암호화를 사용하도록 설정해야 합니다.
  • 원격 ESXi SSL syslog 클라이언트에서 SSLv3 프로토콜이 사용되지 않도록 설정됨
    원격 ESXi SSL syslog 클라이언트에서 안전하지 않은 것으로 간주되는 SSLv3 프로토콜을 사용합니다. 기본적으로 SSLv3를 사용하지 않도록 설정하고 TLS 버전 1.0, 1.1 및 1.2를 지원함으로써 이 문제가 이 릴리스에서 해결되었습니다.
  • OpenSSL 라이브러리 업데이트
    ESXi userworld OpenSSL 라이브러리가 버전 openssl-1.0.1p로 업데이트되었습니다.
서버 구성 문제
  • ESXi 호스트가 예기치 않게 재부팅된 후 수정할 수 없는 시스템 검사 예외 오류가 발생함
    AMD 프로세서가 탑재된 HP 서버에서 1.5TB 메모리가 있는 ESXi 호스트를 5.1에서 6.0으로 업그레이드한 후, 호스트가 예기치 않게 응답을 중지하거나 재부팅될 수 있습니다. 다음과 유사한 UMCE(수정할 수 없는 시스템 검사 예외)가 IML(통합 관리 로그) 파일에 기록됩니다.

    Critical","CPU","##/##/2014 15:41","##/##/2014 15:41","1","Uncorrectable Machine Check Exception (Board 0, Processor 3, APIC ID 0x00000060, Bank 0x00000004, Status 0xF6000000'00070F0F, Address 0x00000050'61EA3B28, Misc 0x00000000'00000000)",
    Mode of failure: Unexpectedly reboot. IML displays UMCE occurred.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Active Directory 인증에 대해 ESXi 호스트를 구성할 수 없음
    많은 수의 CPU가 있는 ESXi 호스트는 Active Directory 도메인에 가입하지 못할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다. 자세한 내용은 기술 자료 문서 2130395를 참조하십시오.
  • sys-alert로 표시된 잘못된 벡터 메시지에서 인터럽트가 수신됨
    ESXi 패치 릴리스 ESXi600-201510001을 적용한 후 잘못된 벡터로 인해 다음과 유사한 sys-alert 메시지가 표시될 수 있으며 vCenter Server에서 여러 이벤트가 생성될 수 있습니다.

    cpu48:88874)ALERT: IntrCookie: 3411: Interrupt received on invalid vector (cpu 48, vector 73); ignoring it.

    이 문제는 이 릴리스에서 해결되었습니다.
  • CBT 기능인 QueryChangedDiskAreas API가 잘못된 섹터를 반환할 수 있음
    ESXi 6.0에서 CBT(변경된 블록 추적)를 사용하는 가상 시스템 백업을 실행하는 경우 CBT API 호출 QueryDiskChangedAreas()에서 잘못된 변경 섹터를 반환하여 일관되지 않은 증분 가상 시스템 백업이 발생할 수 있습니다. 이 문제는 CBT가 스냅샷 통합 중에 I/O가 발생한 VM에서 변경된 블록을 추적하지 못해서 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다. 자세한 내용은 기술 자료 문서 2136854를 참조하십시오.
가상 시스템 관리 문제
  • 전원이 켜진 가상 시스템의 이름을 바꾼 후 esxcli vm process list 명령이 이전 VM 이름을 표시할 수 있음
    전원이 켜진 가상 시스템의 이름을 바꾼 후, esxcli vm process list 명령을 실행하여 호스트에서 실행 중인 VM의 목록을 가져오는 경우 목록에 이전 가상 시스템 이름이 표시될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트와 원격 Syslog 서버의 연결이 끊기면 vCenter Server가 응답을 중지할 수 있음
    ESXi 호스트와 원격 Syslog 서버의 연결이 끊기면 GeneralHostWarningEventAlarmStatusChangedEvent 이벤트가 수많은 경고 메시지를 무기한 기록합니다. 따라서 vCenter 데이터베이스가 vpx_event 및 vpx_event_arg 테이블로 채워집니다. 이 문제로 인해 vCenter의 지연 시간이 길어지며 vCenter Server가 응답을 중지합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Windows 10 VM VMX 실패
    Windows 10 VM vmx 프로세스가 실패하며 vmware.log 파일에서 다음과 유사한 오류 메시지가 표시됩니다.

    NOT_REACHED bora/devices/ahci/ahci_user.c:1530

    이 문제는 이 릴리스에서 해결되었습니다.
  • 일부 3D 애플리케이션을 실행하면 VMX가 실패할 수 있음
    일부 3D 애플리케이션을 실행하면 VMX가 실패할 수 있습니다. vmware.log 파일에 다음과 유사한 오류 메시지가 기록됩니다.

    xxxx-xx-xxTxx:xx:xx.xxxZ| svga| I120: [msg.log.error.unrecoverable] VMware ESX unrecoverable error: (svga)
    xxxx-xx-xxTxx:xx:xx.xxxZ| svga| I120+ NOT_REACHED bora/mks/hostops/shim/shimOps.c:674

    이 문제는 이 릴리스에서 해결되었습니다.
vMotion 및 Storage vMotion 문제
  • ESXi 6.0에서 스냅샷을 통합하는 동안 가상 시스템이 응답을 중지함
    ESXi 6.0 호스트에서 호스팅된 가상 시스템 스냅샷을 통합하는 경우 VM이 응답을 중지하고 VM의 작업 디렉토리에 vmx-zdump 파일이 생성됩니다. /var/log/vmkernel.log에 있는 vmkernel.log 파일에 다음과 유사한 메시지가 표시됩니다.

    cpu17:xxxxxxxx)SVM: xxxx: Error destroying device xxxxxxxx-xxxxxxxx-svmmirror (Busy)
    cpu2:xxxxx)FSS: xxxx: No FS driver claimed device 'xxxxxxxx-xxxxxxxx-svmmirror': No filesystem on the device
    cpu2:xxxxx)FSS: xxxx: No FS driver claimed device 'control': No filesystem on the device

    이 문제는 이 릴리스에서 해결되었습니다. 자세한 내용은 기술 자료 문서 2135631을 참조하십시오.
  • 이름이 "core"로 시작하는 가상 시스템의 Storage vMotion이 실패함
    이름이 "core"로 시작하는 VM의 Storage vMotion 또는 콜드 마이그레이션을 수행하려는 시도가 실패할 수 있습니다. vSphere Web Client에 다음과 유사한 오류 메시지가 표시됩니다.

    가상 시스템 core01의 위치를 변경하는 작업을 완료할 수 없습니다. 이는 파일 또는 폴더
    ds:///vmfs/volumes/xxxxxxxx-xxxxxxxx-xxxx-xxxxxxxxxxxx/core01/core01-xxxxxxxx.hlog가 이미 존재하기 때문입니다.
    충돌하는 대상 파일을 확인하는 중입니다. 관리자: vCenter_Server_name

    이 문제는 이 릴리스에서 해결되었습니다. 자세한 내용은 기술 자료 문서 2130819를 참조하십시오.
VMware HA 및 Fault Tolerance 구성 문제
  • High Availability 페일오버 후 가상 시스템을 시작할 수 없음
    ESXi 호스트 실패 후 HA가 다른 호스트에서 영향을 받는 VM을 시작하면 일부 VM이 부팅 시 응답을 중지할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
기타 문제
  • 범용 보안 그룹이 ESXi 사용 권한 할당 UI에 표시되지 않음
    ESXi 호스트에 사용 권한을 할당하려 할 때 사용자 및 그룹 선택 목록에 글로벌 보안 그룹만 표시되고 범용 보안 그룹은 표시되지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VM 페이지 장애 경로의 VMKernel 로그 파일이 경고로 가득 차서 호스트가 실패할 수 있음
    더 높은 디스플레이 해상도 또는 다중 모니터 설정의 VM 전원을 켜려 하면 vmkernel.log 파일에 다음과 유사한 경고 메시지가 여러 개 표시될 수 있으며 과도한 기록 로드로 인해 호스트가 실패할 수 있습니다.

    XXXX-XX-XXTXX:XX:XX.XXXZ cpuXX:XXXXXXX)WARNING: VmMemPf: vm XXXXXXX: 654: COW copy failed: pgNum=0xXXXXX, mpn=0x3fffffffff
    XXXX-XX-XXTXX:XX:XX.XXXZ cpuXX:XXXXXXX)WARNING: VmMemPf: vm XXXXXXX: 654: COW copy failed: pgNum=0xXXXXX, mpn=0x3fffffffff

    이 문제는 이 릴리스에서 해결되었습니다.
VMware Tools 문제
  • VMware Tools 업그레이드 시도가 실패하며 21009 오류 코드를 반환함
    VMware ESXi 6.0에서 실행하는 가상 시스템의 VMware Tools를 업그레이드하려 하면 다음 오류와 함께 자동 업그레이드가 실패합니다.

    vix error code = 21009

    가상 시스템에 다음 게스트 파일이 있으면 문제가 발생합니다.

    C:\Windows\\Temp\\vmware-SYSTEM\\VMwareToolsUpgrader.exe

    Red Hat Enterprise Linux VM:

    /tmp/vmware-root

    이 문제는 이 릴리스에서 해결되었습니다.
  • SAP를 실행하는 가상 시스템이 임의로 실패함
    SAP를 실행하는 가상 시스템 내에서 너무 많은 VMware Tools 통계 명령을 실행하는 경우 가상 시스템이 임의로 실패하고 vmx.zdump가 발생할 수 있습니다. vmware.log 파일에 다음과 유사한 오류 메시지가 기록됩니다.

    CoreDump error line 2160, error Cannot allocate memory.

    이 문제는 이 릴리스에서 해결되었습니다. 자세한 내용은 기술 자료 문서 2137310을 참조하십시오.
  • VMware Tools 버전 10.0.0 포함
    이 릴리스에는 VMware Tools 버전 10.0.0이 포함되어 있습니다. 자세한 내용은 VMware Tools 10.0.0 릴리스 정보를 참조하십시오.

알려진 문제

ESXi 6.0의 알려진 문제는 다음과 같은 그룹으로 분류할 수 있습니다.

이 릴리스에 정리된 새로운 알려진 문제는 새 문제로 강조 표시됩니다.

설치 문제
  • 새 문제 DCUI에서 기본 구성을 변경한 후에도 DNS 접미사가 유지될 수 있음
    ESXi 호스트가 DHCP 서버에서 제공하는 네트워크에 배포된 경우 최초 부팅 시 해당 ESXi 호스트가 기본 DNS + DNS 접미사를 사용하여 자동으로 구성될 수 있습니다. DNS 접미사를 변경할 경우 DCUI는 기존 DNS 접미사를 제거하지 않고 제공된 새 접미사도 추가합니다.

    해결 방법: 감시 OVF의 DNS 호스트 이름을 구성하는 경우 올바른 DNS 접미사가 추가되도록 DNS 호스트 이름 필드에 전체 FQDN 이름을 설정합니다. 그런 다음 사용자 지정 DNS 접미사 필드에서 필요하지 않은 DNS 접미사를 제거할 수 있습니다.

  • 최신 VMware Tools 패키지 설치 후 Linux OS에서 VMware Tools 서비스 사용자 프로세스가 실행되지 않을 수 있음
    Linux OS에서 최신 VMware Tools 패키지를 설치한 후 VMware Tools 업그레이드/설치 문제가 발생하거나 VMware Tools 서비스(vmtoolsd) 사용자 프로세스가 실행되지 않을 수 있습니다. 이 문제는 SLES10sp4와 같이 glibc 버전이 버전 2.5보다 이전 버전일 경우 발생합니다.

    해결 방법: Linux glibc를 버전 2.5 이상으로 업그레이드

업그레이드 문제

릴리스 정보의 설치 문제 섹션도 검토하십시오. 여러 설치 문제가 업그레이드 프로세스에도 영향을 미칠 수 있습니다.

  • ESXi 6.0의 이전 릴리스에서 ESXi 6.0 업데이트 1로 업그레이드 후 SSLv3이 Auto Deploy에서 사용 가능한 상태로 유지됨
    ESXi 6.0의 이전 릴리스에서 ESXi 6.0 업데이트 1로 업그레이드할 때 SSLv3 프로토콜이 Auto Deploy에서 사용 가능한 상태로 유지됩니다.

    해결 방법: 다음 단계에 따라 PowerCLI 명령을 사용하여 SSLv3를 사용하지 않도록 설정하십시오.

    1. 다음 명령을 실행하여 vCenter Server에 연결합니다.

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Connect-VIServer -Server <vCenter Server의 FQDN_호스트 이름 또는 IP 주소>

    2. 다음 명령을 실행하여 현재 sslv3 상태를 확인합니다.

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-DeployOption

    3. 다음 명령을 실행하여 sslv3를 사용하지 않도록 설정합니다.

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Set-DeployOption disable-sslv3 1

    4. Auto Deploy 서비스를 다시 시작하여 변경 내용을 업데이트합니다.

  • 5.5.x에서 6.0으로 ESXi를 업그레이드한 후 파이버 채널 호스트 버스 어댑터 디바이스 번호가 변경될 수 있음

    5.5에서 6.0으로 ESXi를 업그레이드 중 파이버 채널 호스트 버스 어댑터 디바이스 번호가 가끔 변경됩니다. esxcli storage core adapter list 명령을 사용하는 경우 디바이스 번호가 다른 번호로 변경될 수 있습니다.

    예를 들어 ESXi 업그레이드 전 파이버 채널 호스트 버스 어댑터의 디바이스 번호는 다음과 유사합니다.

    HBA Name
    ––––––––
    vmhba3
    vmhba4
    vmhba5
    vmhba66

    ESXi 6.0으로의 업그레이드 후 파이버 채널 호스트 버스 어댑터의 디바이스 번호는 다음과 유사합니다.

    HBA Name
    ––––––––
    vmhba64
    vmhba65
    vmhba5
    vmhba6

    이 예는 esxcli storage core adapter list 명령을 사용하는 경우 발생할 수 있는 임의 변경을 보여 줍니다. 디바이스 별칭 번호 vmhba2 및 vmhba3이 vmhba64 및 vmhba65로 변경되지만 디바이스 번호 vmhba5 및 vmhba6은 변경되지 않습니다. 그러나 esxcli hardware pci list 명령을 사용하면 업그레이드 후에도 디바이스 번호는 변경되지 않습니다.

    이는 VMware 외부적인 문제이며 사용자에게 영향을 주지 않을 수 있습니다. ESXi는 디바이스 별칭 이름을 표시하지만 어떤 작업에도 별칭 이름을 사용하지는 않습니다. 호스트 프로파일을 사용하여 디바이스 별칭 이름을 재설정할 수 있습니다. VMware 제품 설명서 및 기술 자료 문서를 참조하십시오.

    해결 방법: 없음.

  • 업그레이드 후 Active Directory 설정이 유지되지 않음
    호스트를 ESXi 6.0으로 업그레이드하면 업그레이드 전에 ESXi 호스트에 구성된 Active Directory 설정이 유지되지 않습니다.

    해결 방법: 업그레이드 전 ESXi 버전이 5.1 이상인 경우 업그레이드 후에 호스트를 Active Directory 도메인에 추가합니다. 업그레이드 전 ESXi 버전이 5.0.x인 경우에는 업그레이드 후에 Active Directory 도메인에 호스트를 추가하지 마십시오.

  • ESXi를 6.0으로 업그레이드한 후 기존에 도메인에 추가한 호스트가 더 이상 도메인에 가입되지 않음
    처음으로 vSphere 5.5에서 vSphere 6.0으로 업그레이드할 경우 Active Directory 구성이 유지되지 않습니다.

    해결 방법: 업그레이드 후 호스트를 vCenter Server 도메인에 다시 가입시키십시오.

    1. vCenter Server에 호스트를 추가합니다.

    2. 호스트를 도메인(예: example.com)에 가입시킵니다.

    3. 모든 호스트를 ESXi 6.0으로 업그레이드합니다.

    4. 최근 업그레이드한 호스트 하나를 도메인에 수동으로 가입시킵니다.

    5. 호스트 프로파일을 추출하고 인증을 제외한 다른 모든 프로파일을 사용하지 않도록 설정합니다.

    6. 수동으로 가입한 호스트 프로파일을 최근 업그레이드한 다른 호스트에 적용합니다.

  • vCenter Server for Windows 업그레이드 후 기존에 실행 중이던 VMware ESXi Dump Collector 서비스가 기본값인 [사용 안 함] 설정으로 재설정됨
    업그레이드 프로세스에서는 VMware Vsphere ESXi Dump Collector 6.0을 vCenter Server에 대한 선택적 서비스 그룹의 일부로 설치합니다. VMware vSphere ESXi Dump Collector 서비스를 사용하도록 수동으로 설정해야만 이 서비스가 vCenter Server 6.0 for Windows의 일부로 사용됩니다.

    해결 방법: VMware 설명서를 읽거나 VMware 기술 자료 문서를 검색하여 vCenter Server 6.0 for Windows에서 선택적 서비스를 사용하도록 설정하고 실행하는 방법에 대한 정보를 참조하십시오.

    다음과 같이 운영 체제에서 VMware vSphere ESXi Dump Collector 서비스를 사용하도록 설정합니다.

    1. 제어판 메뉴에서 관리 도구를 선택하고 서비스를 두 번 클릭합니다.

    2. VMware vSphere ESXi Dump Collector를 마우스 오른쪽 버튼으로 클릭하고 시작 유형 편집을 선택합니다.

    3. 시작 유형자동으로 설정합니다.

    4. VMware vSphere ESXi Dump Collector를 마우스 오른쪽 버튼으로 클릭하고 시작을 클릭합니다.

    서비스 시작 유형이 자동으로 설정되고 서비스가 실행 중 상태가 됩니다.

vCenter Single Sign-On 및 인증서 관리 문제
  • ESXi 호스트의 SSL 인증서 업그레이드 후 VM 콘솔에 연결할 수 없음
    ESXi 호스트에서 사용되던 SSL 인증서를 업그레이드한 후 인증서 교체 시 실행 중인 모든 VM의 VM 콘솔에 연결하려고 하면 인증서 검증 오류가 발생할 수 있습니다. 이는 이전 인증서가 캐시되어 있어서 새 콘솔 연결이 불일치로 인해 거부되기 때문입니다.
    예를 들어 이전 인증서를 다른 방법을 통해 확인할 수 있다면 콘솔 연결이 성공할 수도 있지만 성공한다는 보장은 없습니다. 기존 가상 시스템 콘솔 연결에는 영향을 미치지 않지만 인증서 교체 도중 실행 중이던 콘솔이 중지되었다 다시 시작된 경우에는 문제가 발생할 수 있습니다.

    해결 방법: 호스트를 유지 보수 모드로 전환하거나 일시 중단하거나 모든 VM의 전원을 끕니다. 실행 중인 VM에만 영향을 미칩니다. 호스트를 유지 보수 모드로 전환한 후 모든 SSL 인증서 업그레이드를 수행하는 것이 가장 좋습니다.

네트워킹 문제

  • 특정 vSphere 기능이 IPv6을 지원하지 않음
    다음 기능을 제외한 모든 노드 및 구성 요소에 대해 IPv6을 사용하도록 설정할 수 있습니다.

    • DNS 서버의 FQDN(정규화된 도메인 이름)에 매핑되지 않은 ESXi 호스트 및 vCenter Server에 대한 IPv6 주소.
      해결 방법: FQDN을 사용하거나 IPv6 주소가 역방향 이름 조회를 위해 DNS 서버에서 FQDN에 매핑되어 있는지 확인합니다.

    • 가상 볼륨

    • Auto Deploy 및 호스트 프로파일의 일부로 PXE 부팅
      해결 방법: PXE는 IPv4를 통해 ESXi 호스트를 부팅하며 호스트 프로파일을 사용하여 IPv6에 대해 호스트를 구성합니다.

    • ESXi 호스트와 vCenter Server Appliance의 Active Directory 연결
      해결 방법: LDAP를 통한 Active Directory를 vCenter Single Sign-On에서 ID 소스로 사용합니다.

    • Kerberos를 사용하는 NFS 4.1 스토리지
      해결 방법: NFS 4.1에 AUTH_SYS를 사용합니다.

    • Authentication Proxy

    • vSphere Management Assistant 및 vSphere Command-Line Interface의 Active Directory 연결
      해결 방법: LDAP를 통해 Active Directory에 연결합니다.

    • vSphere Client를 사용하여 vSphere 기능에 대해 IPv6을 사용하도록 설정
      해결 방법: vSphere Web Client를 사용하여 vSphere 기능에 대해 IPv6을 사용하도록 설정합니다.

  • ESXi Dump Collector를 사용할 때 재귀적 패닉 발생 가능
    호스트가 자주색 진단 화면을 표시하고 네트워크를 통해 ESXi Dump Collector에 코어 덤프를 쓰면서 패닉 상태에 있을 때 재귀적 커널 패닉이 발생할 수 있습니다. vCenter Server의 ESXi Dump Collector에서 VMkernel zdump 파일을 문제 해결에 사용할 수 있습니다.

    재귀적 커널 패닉이 발생할 경우 호스트의 자주색 진단 화면에 다음 메시지가 표시됩니다.
    2014-09-06T01:59:13.972Z cpu6:38776)Starting network coredump from host_ip_address to esxi_dump_collector_ip_address.
    [7m2014-09-06T01:59:13.980Z cpu6:38776)WARNING: Net: 1677: Check what type of stack we are running on [0m
    Recursive panic on same CPU (cpu 6, world 38776, depth 1): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Secondary panic trap frame registers:
    RAX:0x0002000001230121 RCX:0x000043917bc1af80 RDX:0x00004180009d5fb8 RBX:0x000043917bc1aef0
    RSP:0x000043917bc1aee8 RBP:0x000043917bc1af70 RSI:0x0002000001230119 RDI:0x0002000001230121
    R8: 0x0000000000000038 R9: 0x0000000000000040 R10:0x0000000000010000 R11:0x0000000000000000
    R12:0x00004304f36b0260 R13:0x00004304f36add28 R14:0x000043917bc1af20 R15:0x000043917bc1afd0
    CS: 0x4010 SS: 0x0000 FS: 0x4018 GS: 0x4018 IP: 0x0000418000f0eeec RFG:0x0000000000010006
    2014-09-06T01:59:14.047Z cpu6:38776)Backtrace for current CPU #6, worldID=38776, rbp=0x43917bc1af70
    2014-09-06T01:59:14.056Z cpu6:38776)0x43917bc1aee8:[0x418000f0eeec]do_free_skb@com.vmware.driverAPI#9.2+0x4 stack: 0x0, 0x43a18b4a5880,
    2014-09-06T01:59:14.068Z cpu6:38776)Recursive panic on same CPU (cpu 6, world 38776): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Halt$Si0n5g# PbC8PU 7.

    코어 덤프를 vCenter Server의 수집기로 전송하도록 구성된 물리적 네트워크 어댑터를 통해 많은 트래픽이 통과되고 있을 때 VMkernel 패닉이 발생하면 재귀적 커널 패닉이 발생할 수 있습니다.

    해결 방법: 다음 해결 방법 중 하나를 수행합니다.

    • 물리적 네트워크 어댑터를 코어 덤프 전송 전용으로 지정하여 시스템 및 가상 시스템 트래픽으로부터의 영향을 줄입니다.

    • 다음 ESXCLI 콘솔 명령을 실행하여 호스트에서 ESXi Dump Collector를 사용하지 않도록 설정합니다.
      esxcli system coredump network set --enable false

스토리지 문제

NFS 버전 4.1 문제

  • NFS 4.1 공유가 APD(모든 경로 다운) 상태에서 복구된 후 NFS 4.1 데이터스토어의 가상 시스템이 실패함
    NFS 4.1 스토리지가 APD 상태로 전환한 다음 유예 기간 후 이 상태에서 벗어나면, NFS 4.1 데이터스토어에서 실행되는 전원이 켜진 가상 시스템이 실패합니다. 유예 기간은 어레이 벤더에 따라 다릅니다.
    NFS 4.1 공유가 APD에서 복구된 후 vSphere Web Client의 가상 시스템 요약 페이지에 다음 메시지가 표시됩니다.
    VM.vmdk를 보호하는 잠금이 손실되었습니다. 기본 스토리지 문제 때문일 수 있습니다. 이 가상 시스템이 고가용성으로 구성된 경우 가상 시스템이 일부 다른 호스트에서 실행되고 있는지 확인한 후 [확인]을 클릭하십시오.
    확인을 클릭하면 충돌 파일이 생성되고 가상 시스템 전원이 꺼집니다.

    해결 방법: 없음.

  • 새 세션을 생성하려고 할 때 NFS 4.1 클라이언트에서 서버와의 동기화가 손실됨
    서버와의 연결이 중단되고 일정 시간이 지난 후 새 세션을 생성하려고 할 때 NFS 4.1 클라이언트에서 서버와의 동기화가 손실될 수 있습니다. 이 문제가 발생하면 NFS41 CREATE_SESSION 요청이 NFS4ERR_SEQ_MISORDERED로 실패했음을 알리는 많은 경고 메시지가 vmkernel.log 파일에 포함됩니다.

    해결 방법: 다음 단계를 순서대로 수행하십시오.

    1. 영향을 받은 파일 시스템의 마운트 해제를 시도합니다. 마운트를 해제할 때 열려 있는 파일이 없으면 이 작업이 성공하고 NFS 클라이언트 모듈이 내부 상태를 지웁니다. 그러면 마운트 해제되었던 파일 시스템을 다시 마운트하고 정상 작동을 재개할 수 있습니다.

    2. 마운트의 IP 주소로 연결되는 NIC를 중지하고 몇 회의 서버 리스가 만료될 때까지 충분히 기다립니다. 5분이면 충분합니다. 그런 다음 NIC를 다시 켤 수 있습니다. 그러면 정상 작동이 재개됩니다.

    3. 앞의 단계가 실패하면 ESXi 호스트를 재부팅합니다.

  • NFS 4.1 클라이언트와 NFS 서버의 동기화가 손실되고 세션을 재설정해도 연결을 복구할 수 없음
    서버와의 연결이 중단되고 일정 시간이 지나면, NFS 4.1 클라이언트와 서버의 동기화가 손실되고 세션을 재설정하더라도 서버와의 동기화된 연결을 복구할 수 없습니다. 이 문제는 EMC VNX 서버 문제 때문에 발생합니다. 이 문제가 발생하면 다음을 알리는 여러 경고 메시지가 vmkernel.log 파일에 포함됩니다. NFS41: NFS41ProcessSessionUp:2111: resetting session with mismatched clientID; probable server bug

    해결 방법: 세션을 종료하려면 모든 데이터스토어를 마운트 해제했다가 다시 마운트합니다.

  • ONTAP Kerberos 볼륨이 액세스 불가 상태가 되거나 VM I/O 실패 발생
    NetApp 서버에 잘못된 순서로 도착되는 RPCSEC_GSS 요청이 수신될 경우 서버가 응답하지 않습니다. 그 결과 I/O 작업이 종료되는 경우 이외에는 해당 I/O 작업이 중지되며 게스트 OS가 I/O 오류를 중지하거나 게스트 OS에서 I/O 오류가 발생할 수 있습니다. 또한 RFC 2203에 따르면 클라이언트는 RPCSEC_GSS 컨텍스트에 따라 seq_window에 해당하는 수의 미결 요청(ONTAP의 경우 32개)만 사용할 수 있으며 이러한 미결 요청의 최소치가 서버에 의해 완료될 때까지 기다려야 합니다. 따라서 서버는 순서에서 벗어난 RPCSEC_GSS 요청에 응답하지 않으며 미결 요청의 최대 seq_window 수에 도달한 후에는 클라이언트가 서버에 요청을 보내는 것을 중지합니다. 이로 인해 볼륨에 액세스할 수 없게 됩니다.

    해결 방법: 없음. 이 문제가 해결된 지원되는 ONTAP 서버를 찾으려면 최신 HCL(하드웨어 호환성 목록)을 참조하십시오.

  • EMC VNX에서 NFS 4.1 데이터스토어에 1TB가 넘는 가상 디스크를 생성할 수 없음
    펌웨어 버전 7.x가 적용된 EMC VNX의 NFS 버전 4.1 스토리지는 32비트 파일 형식만 지원합니다. 이로 인해 NFS 4.1 데이터스토어에 1TB를 초과하는 가상 시스템 파일을 생성할 수 없습니다.

    해결 방법: EMC VNX 어레이를 버전 8.x로 업데이트하십시오.

  • 펌웨어 업그레이드 도중 EMC VNX 스토리지가 지원하는 NFS 4.1 데이터스토어에 액세스할 수 없음
    EMC VNX 스토리지를 새 펌웨어로 업그레이드할 때 ESXi 호스트에 마운트된 NFS 4.1 데이터스토어에 액세스할 수 없게 됩니다. 이 문제는 펌웨어 업그레이드 후 VNX 서버가 해당 주 디바이스 번호를 바꾸기 때문에 발생합니다. 호스트의 NFS 4.1 클라이언트는 서버와 연결된 후 주 번호 변경을 예상하지 않으며 이로 인해 데이터스토어에 영구적으로 액세스할 수 없게 됩니다.

    해결 방법: 펌웨어를 업그레이드하기 전에 VNX 서버에서 내보낸 모든 NFS 4.1 데이터스토어를 마운트 해제합니다.

  • ESXi 호스트가 다른 보안 메커니즘을 사용하여 동일한 NFS 4.1 데이터스토어를 마운트하는 경우 가상 시스템 장애가 발생할 수 있음
    다른 ESXi 호스트가 다른 보안 메커니즘(AUTH_SYS 및 Kerberos)을 사용하여 동일한 NFS 4.1 데이터스토어를 마운트하는 경우 이 데이터스토어에 배치된 가상 시스템에서 문제와 장애를 경험할 수 있습니다. 예를 들어 가상 시스템을 host1에서 host2로 마이그레이션하려고 하면 권한 거부 오류로 인해 작업이 실패할 수 있습니다. 또한 host2에서 host1 가상 시스템에 액세스하려는 경우에도 이러한 오류가 발생할 수 있습니다.

    해결 방법: NFS 4.1 볼륨을 마운트하는 모든 호스트가 동일한 보안 유형을 사용하고 있는지 확인합니다.

  • Kerberos를 사용하는 NFS 4.1 데이터스토어에 읽기 전용 파일을 복사하려고 하면 작업이 실패함
    이 실패는 소스 파일에서 대상 파일로 데이터를 복사하려는 경우에 발생할 수 있습니다. 대상 파일은 비어 있는 상태로 유지됩니다.

    해결 방법: 없음.

  • 데이터스토어 클러스터를 생성할 때 NFS 4.1 보안 유형의 균일성이 보장되지 않음
    데이터스토어를 생성할 때 vSphere는 NFS 4.1 보안 유형의 균일성을 확인하여 강제로 맞추지 않습니다. 따라서 다른 보안 유형(AUTH_SYS 및 Kerberos)을 사용하는 데이터스토어가 동일한 클러스터의 일부로 구성되어 있을 수 있습니다. Kerberos를 사용하는 데이터스토어에서 AUTH_SYS를 사용하는 데이터스토어로 가상 시스템을 마이그레이션하는 경우 가상 시스템의 보안 수준이 더 낮아지게 됩니다.
    이 문제는 vMotion, Storage vMotion, DRS 및 Storage DRS와 같은 기능에 적용됩니다.

    해결 방법: Kerberos 보안이 가상 시스템에 필요한 경우 동일한 클러스터를 구성하는 모든 NFS 4.1 볼륨이 Kerberos 보안 유형만 사용하는지 확인합니다. NFS 3은 AUTH_SYS만 지원하므로 NFS 3 데이터스토어를 포함시키지 않아야 합니다.

Virtual Volumes 문제

  • Virtual Volumes VASA 제공자가 사용하는 올바르지 않은 인증서 때문에 가상 데이터스토어 생성 실패
    경우에 따라 Virtual Volumes VASA 제공자가 사용하는 자체 서명된 인증서는 KeyUsage 확장을 keyCertSign 비트를 설정하지 않고 위험으로 잘못 정의할 수 있습니다. 이 경우 제공자 등록은 성공합니다. 하지만 VASA 제공자가 보고한 스토리지 컨테이너에서 가상 데이터스토어를 생성할 수 없습니다.

    해결 방법: 제공자 등록 시점에 VASA 제공자가 사용하던 자체 서명된 인증서가 keyCertSign 비트를 설정하지 않고 KeyUsage 확장을 위험으로 정의하지 않아야 합니다.

일반 스토리지 문제

  • 새 VM이 기존 디스크에서 생성된 경우 vSphere Web Client에서 스토리지 정책을 연결됨으로 잘못 표시함
    기존 디스크에서 새 VM을 생성하는 데 vSphere Web Client를 사용하고 디스크를 설정할 때 스토리지 정책을 지정합니다. 새 VM 선택 --> VM 정책 --> VM 스토리지 정책 편집 클릭 시 필터가 연결되어 있는 것으로 나타나지만 해당 필터는 실제로는 연결되어 있지 않습니다. .vmdk 파일 또는 vmkfstools --iofilterslist <vmdk-file>'을 확인하여 필터가 연결되어 있는지 확인할 수 있습니다.

    해결 방법: 새 VM을 생성한 후 전원을 켜기 전에 VM 정책 --> VM 스토리지 정책 편집을 클릭하여 필터를 vmdk에 추가하십시오.

  • IPv6 설정에 I/O 필터를 설치하면 해당 기능이 VPXD에 게시되지 않음
    VIM API를 통해 I/O 필터 설치가 성공한 후 설치된 필터가 VPXD에 필터 기능을 게시할 수 없습니다. SPBM(vSphere Storage Policy Based Management)에 게시된 기능이 없으므로 필터 프로필을 디스크에 연결할 수 없습니다.

    해결 방법: 없음.

  • NFS 조회 작업을 수행할 때 오래된 NFS 오류가 반환됨
    NFS 데이터스토어에 많은 수의 VM을 배포할 경우 경합 조건으로 인해 다음과 유사한 오류 메시지와 함께 VM을 배포하지 못할 수 있습니다.

    오래된 NFS 파일 핸들

    해결 방법: 조회 작업을 다시 시작하십시오. 자세한 내용은 기술 자료 문서 2130593을 참조하십시오.

  • QLogic iSCSI 어댑터가 사용될 때 Dell EqualLogic LUN에서 VMFS 데이터스토어를 생성하려는 시도가 실패함
    QLogic iSCSI 어댑터를 통해 검색된 Dell EqualLogic 스토리지 디바이스에서 VMFS 데이터스토어를 생성할 수 없습니다.
    시도가 실패하면 vCenter Server에 다음 오류 메시지가 나타납니다. 파일 시스템을 생성할 수 없습니다. 자세한 내용은 VMkernel 로그를 확인하십시오. 연결 시간이 초과되었습니다. VMkernel 로그에는 연속적인 iscsi session blockediscsi session unblocked 메시지가 포함됩니다. Dell EqualLogic 스토리지 어레이에서 모니터링 로그에 QLogic 이니시에이터 IQN 이름에 대해 이니시에이터에서 수신된 패킷에서 프로토콜 오류 메시지가 표시됩니다.

    이 문제는 다음 구성 요소를 사용할 때 발견됩니다.

    • Dell EqualLogic 어레이 펌웨어: V6.0.7

    • QLogic iSCSI 어댑터 펌웨어 버전: 3.00.01.75

    • 드라이버 버전: 5.01.03.2-7vmw-debug

    해결 방법: QLogic iSCSI 어댑터에서 iSCSI ImmediateData 어댑터 매개 변수를 사용하도록 설정합니다. 기본적으로 이 매개 변수는 꺼져 있습니다. 이 매개 변수는 vSphere Web Client에서 또는 esxcli 명령을 사용하여 변경할 수 없습니다. 이 매개 변수를 변경하려면 QConvergeConsole CLI와 같은 벤더 제공 소프트웨어를 사용하십시오.

  • Emulex OneConnect HBA가 설치된 ESXi 호스트가 부팅되지 않음
    ESXi 호스트에 Emulex OneConnect HBA가 설치된 경우 호스트가 부팅되지 않을 수 있습니다. 이 실패는 Emulex 펌웨어의 문제 때문에 발생합니다.

    해결 방법: 이 문제를 수정하려면 Emulex에 HBA의 최신 펌웨어를 문의하십시오.

    이전 펌웨어를 계속 사용하는 경우 부팅 문제를 피하려면 다음 단계를 수행하십시오.

    1. ESXi가 로드될 때 ESXi 커널 부팅 전에 Shift+O를 누릅니다.

    2. 기존 부팅 옵션은 그대로 두고, 공백과 dmaMapperPolicy=false를 차례로 추가합니다.

  • APD 도중 Flash Read Cache가 I/O를 가속하지 않음
    Flash Read Cache에 대한 가상 플래시 리소스로 구성된 플래시 디스크에 문제가 있거나 이 디스크에 액세스할 없는 경우 또는 호스트에서 디스크 스토리지에 연결할 수 없는 경우, 해당 호스트의 Flash Read Cache 인스턴스가 무효하며 I/O 가속을 수행하지 않습니다. 그 결과 호스트와 스토리지가 다시 연결된 후 캐시가 오래된 데이터를 제공하지 않습니다. 연결 중단은 일시적인 APD(모든 경로 다운) 조건이거나 영구적인 PDL(영구적 디바이스 손실)일 수 있습니다. 이 조건은 가상 시스템의 전원을 껐다가 다시 켤 때까지 지속됩니다.

    해결 방법: 가상 시스템 전원을 껐다가 다시 켜서 Flash Read Cache를 사용한 I/O 가속을 복원할 수 있습니다.

  • APD(모든 경로 다운) 또는 경로 페일오버로 인해 시스템 실패가 발생할 수 있음
    공유된 SAS 환경에서 디스크가 lsi_msgpt3 드라이버에 의해 할당되었고 이 디스크에 I/O 활동이 많을 경우, APD 또는 경로 페일오버 상황으로 인해 시스템 실패가 발생할 수 있습니다.

    해결 방법: 없음

  • SCSI 중단 명령을 자주 사용하면 시스템 실패가 발생할 수 있음
    I/O 활동이 많을 때 SCSI 중단 명령을 자주 사용하면 MegaRAID 컨트롤러의 응답이 매우 느려질 수 있습니다. 이전 컨텍스트에서 이미 해제되었던 리소스 참조에 예기치 않은 인터럽트가 발생할 경우 시스템이 실패할 수 있습니다.

    해결 방법: 없음

  • IQN 변경 시 iSCSI 연결이 실패하고 데이터스토어에 액세스할 수 없음
    이 문제는 어댑터의 iSCSI 세션이 아직 활성화된 상태에서 iSCSI 어댑터의 IQN을 변경한 경우에 발생할 수 있습니다.

    해결 방법: iSCSI 어댑터의 IQN을 변경할 때는 해당 어댑터에 활성화된 세션이 없어야 합니다. IQN을 변경하기 전에 어댑터에서 모든 iSCSI 세션 및 모든 대상을 제거하십시오.

  • nvmecli 온라인 및 오프라인 작업이 적용되지 않을 때가 있음
    NVMe 디바이스를 온라인 상태로 전환하기 위해 nvmecli device online -A vmhba* 작업을 수행하면 작업이 성공한 것으로 보입니다. 하지만 디바이스는 여전히 오프라인 상태에 있을 수 있습니다.

    해결 방법: nvmecli device list 명령을 실행하여 NVMe 디바이스의 상태를 확인합니다.

Virtual SAN 문제
  • Virtual SAN 클러스터에 호스트를 추가하면 설치 관리자 오류가 트리거됨
    ESXi를 HA 및 Virtual SAN 상태 서비스가 사용되도록 설정된 클러스터에 추가하면 VIB 설치 경합 조건으로 인해 다음 오류 중 한 개 또는 모두가 발생할 수 있습니다.

    • 작업 보기에서 vSphere HA 작업 구성이 다음과 유사한 오류 메시지와 함께 실패할 수 있습니다.

      vCenter Server 에이전트 서비스를 설치할 수 없습니다. ‘알 수 없는 설치 관리자 오류’

    • 에이전트 사용 작업이 다음과 유사한 오류 메시지와 함께 실패할 수 있습니다.

      작업을 완료할 수 없습니다. 자세한 내용은 이벤트 로그를 참조하십시오.

    해결 방법:

    • HA 구성 실패를 해결하려면 호스트를 재부팅하고 다음과 같이 HA를 재구성합니다.

      호스트 및 클러스터 보기 -> 클러스터 이름 -> 관리 탭 -> vSphere HA 클릭

    • 에이전트 사용 작업 실패를 해결하려면 클러스터 보기로 이동하고 다음과 같이 VSAN 상태 서비스 사용을 재시도합니다.

      호스트 및 클러스터 보기 -> 클러스터 이름 -> 관리 탭 클릭 -> Virtual SAN 범주의 상태에서 위쪽 재시도 버튼 클릭

서버 구성 문제
  • 새 문제 TLS 버전 1.1 및 1.2만 사용하도록 설정된 ESXi 6.0 호스트를 vCenter Virtual Appliance 5.5에 연결하지 못함
    VCVA가 SSLv3 및 TLSv1.0 프로토콜만 지원하므로 TLS 버전 1.1 및 1.2만 사용하도록 설정된 ESXi 6.0 호스트를 VCVA(vCenter Virtual Appliance) 5.5에 연결하지 못합니다.

    해결 방법: vCenter Virtual Appliance 5.5에 연결할 수 있도록 ESXi 6.0 호스트에서 SSLv3 또는 TLS1.0 프로토콜을 사용하도록 설정합니다.

  • 상태 저장 호스트의 호스트 프로파일을 Auto Deploy를 통해 프로비저닝된 호스트에 적용하는 경우 업데이트 적용이 실패함
    상태를 저장하여 배포된 호스트의 호스트 프로파일을 로컬 스토리지가 없고 Auto Deploy를 통해 프로비저닝된 호스트(상태 비저장 호스트)에 적용하는 경우 다음 오류 메시지 중 하나가 표시되면서 업데이트 적용 시도가 실패합니다.

    • PCI 버스 주소가 sxxxxxxxx.xx인 vmhba 디바이스가 호스트에 없습니다. 종료한 후 PCI 슬롯 yy에 카드를 넣어야 합니다. 카드 유형은 참조 호스트의 유형과 정확히 일치해야 합니다.

    • 유효한 코어 덤프 파티션이 없습니다.

    해결 방법: 호스트 프로파일에서 문제를 일으키는 플러그인(예: 디바이스 별칭 구성 또는 코어 덤프 구성)을 사용하지 않도록 설정한 후 호스트 프로파일에 업데이트를 적용합니다.

  • 정적 IP가 포함된 호스트 프로파일을 호스트에 적용하면 규정 준수 오류가 발생함
    DHCP 네트워크 구성이 있는 호스트에서 호스트 프로파일을 추출하고 정적 IP 주소를 포함하도록 호스트 프로파일을 편집한 후 다른 호스트에 적용하는 경우 다음 메시지가 표시되면서 규정 준수 오류가 발생합니다.

    IPv4 경로 수가 일치하지 않습니다.

    해결 방법: DHCP 호스트에서 호스트 프로파일을 추출하기 전에 정적 IP 주소를 포함하도록 호스트를 구성합니다.

  • 네트워크 리소스가 오버 커밋된 가상 네트워크 어댑터를 핫 추가하면 가상 시스템의 전원이 꺼질 수 있음
    Network I/O Control을 사용하도록 설정한 vSphere Distributed Switch에서 전원이 켜진 가상 시스템은 호스트 물리적 네트워크 어댑터의 가상 시스템 트래픽에 대한 예약에 따른 대역폭 예약을 사용하여 구성됩니다. 호스트의 물리적 네트워크 어댑터에서 사용 가능한 대역폭을 초과하는 네트워크 대역폭 예약을 설정하여 가상 시스템에 네트워크 어댑터를 추가합니다.

    네트워크 어댑터를 핫 추가하면 VMkernel이 FSR(Fast Suspend and Resume) 프로세스를 시작합니다. 가상 시스템이 사용 가능한 것보다 많은 네트워크 리소스를 요청하므로 VMkernel은 FSR 프로세스의 실패 경로를 수행합니다. 이 실패 경로의 오류로 인해 가상 시스템의 전원이 꺼집니다.

    해결 방법: 전원이 켜진 가상 시스템에 네트워크 어댑터를 추가할 때 대역폭 예약을 구성하지 마십시오.

VMware HA 및 Fault Tolerance 문제
  • 레거시 FT(Fault Tolerance)가 Intel Skylake-DT/S, Broadwell-EP, Broadwell-DT 및 Broadwell-DE 플랫폼에서 지원되지 않음
    레거시 FT가 Intel Skylake-DT/S, Broadwell-EP, Broadwell-DT 및 Broadwell-DE 플랫폼에서 지원되지 않습니다. 단일 프로세서, Legacy Fault Tolerance를 사용하도록 설정한 후 가상 시스템의 전원을 켜려는 시도가 실패합니다.

    해결 방법: 없음.

게스트 운영 체제 문제
  • 핫 플러그 후 NVMe PCIe SSD 디바이스에 대한 패스스루 모드 설정 시도가 실패할 수 있음
    vSphere Web Client에서 SSD 디바이스에 대한 패스스루 모드를 사용하도록 설정하려면, 호스트를 선택하고 관리 탭과 설정을 클릭한 다음 하드웨어 섹션으로 이동하여 PCI 디바이스 > 편집을 클릭합니다. 그리고 패스스루를 사용하도록 설정할 수 있는 활성 디바이스 목록에서 디바이스를 선택하고 확인을 클릭합니다. 하지만 PCIe NVMe 드라이브가 없는 ESXi 6.0 호스트에 새 NVMe 디바이스를 핫 플러그하면 새 NVMe PCIe SSD 디바이스는 패스스루 모드에 대해 사용하도록 설정할 수 없으며 사용 가능한 패스스루 디바이스 목록에 나타나지 않습니다.

    해결 방법: 호스트를 다시 시작합니다. ESXi 호스트에서 명령을 실행할 수도 있습니다.

    1. 루트 사용자로 로그인합니다.

    2. 다음 명령을 실행합니다.
      /etc/init.d/hostd start

지원되는 하드웨어 문제
  • esxcli를 실행하여 디스크 위치를 가져올 때 HP 서버의 Avago 컨트롤러에 대한 결과가 잘못됨

    esxcli storage core device physical get을 실행하면 HP 서버의 Avago 컨트롤러에 대한 결과가 잘못됩니다.

    예를 들어 다음을 실행할 경우
    esxcli storage core device physical get -d naa.5000c5004d1a0e76
    시스템에서 다음을 반환합니다.
    Physical Location: enclosure 0, slot 0

    물리적 서버의 해당 슬롯에 대한 실제 레이블은 1입니다.

    해결 방법: HP 서버에서 슬롯을 신중하게 확인합니다. HP 서버의 슬롯 번호가 1부터 시작하므로, 올바른 결과를 위해 명령이 반환하는 슬롯 번호를 늘려야 합니다.

CIM 및 API 문제
  • sfcb-vmware_raw의 실행이 실패함
    할당된 최대 기본 플러그인 리소스 그룹 메모리가 충분하지 않을 때 sfcb-vmware_raw의 실행이 실패할 수 있습니다.

    해결 방법: 다음 명령을 사용하여 sfcbd 플러그인의 메모리 제한에 대해 UserVars CIMOemPluginsRPMemMax를 추가하고 sfcbd를 다시 시작하여 새 플러그인 값을 반영합니다.

    esxcfg-advcfg -A CIMOemPluginsRPMemMax --add-desc 'Maximum Memory for plugins RP' --add-default XXX --add-type int --add-min 175 --add-max 500

    XXX는 할당하고자 하는 메모리 제한입니다. 이 값은 최소값(175) 및 최대값(500) 이내여야 합니다.

>