Windows Server를 사용하여 Hyper-V 작업에 대한 비용 효율적인 저장소 제공: 계획 및 디자인 가이드

 

적용 대상: System Center 2012, Windows Server 2012 R2

이 가이드에서는 Windows Server 및 Hyper-V에서 클라우드 서비스 플랫폼의 일부로 실행 중인 가상 컴퓨터를 호스트하는 계산 클러스터에 대한 한 가지 특정 저장소 솔루션을 계획 및 디자인하는 방법을 설명합니다. 이 소프트웨어 정의 저장소 솔루션에서는 관리하기 쉬운 Windows Server 파일 서버 클러스터와 함께 JBOD(Just-a-Bunch-Of-Disks) 인클로저 및 저장소 공간을 사용하여 비용 효율적인 고성능 저장소를 확보하고, 값비싼 SAN 장치 없이도 클라우드 플랫폼을 구현합니다.

이 항목에 대한 최근 변경 내용 목록은 이 항목의 변경 내용 섹션을 참조하세요.

아직 하지 않는 경우 Windows Server를 사용하여 Hyper-V 작업에 대한 비용 효율적인 저장소 제공를 읽어 보세요. 이 가이드는 이 솔루션을 소개하며 이 항목과 함께 사용할 수 있습니다.

여기서는 약 100개의 테넌트로 구성된 초기 배포(테넌트당 가상 컴퓨터 8개)를 대상으로 하며, 점차 약 500개 테넌트로 솔루션을 확장할 수 있는 기능이 있다고 가정합니다. 좀 더 유연하고 포괄적인 디자인 지침을 보려면 소프트웨어 정의 저장소 디자인 고려 사항 가이드를 참조하세요.

다음 단계와 설계 결정을 사용하여 Hyper-V 작업에 대한 Windows Server 기반 저장소를 구현하는 계획을 세웁니다.

이 가이드의 내용

  • 1단계: 파일 서버 클러스터 설계

  • 2단계: 관리 클러스터 설계

  • 3단계: 계산 클러스터 설계

  • 다음 단계

1단계: 파일 서버 클러스터 설계

이 단계에서는 이 솔루션에서 가상 컴퓨터에 저장소를 제공하는 데 사용되는 파일 서버 클러스터를 설계합니다.

1.1. 파일 서버 클러스터 하드웨어 설계

파일 서버 클러스터에 대해 권장되는 하드웨어 구성 요소는 다음과 같습니다. 저장소 공간을 사용하여 하드웨어를 통합 솔루션으로 테스트 및 지원하는 공급업체의 모든 프로덕션 하드웨어를 구입하는 것이 좋습니다.

구성 요소

지침

저장소 엔클로저

  • 4개의 동일한 저장소 엔클로저(총 4개 엔클로저의 240개 디스크)

    인클로저가 네 개이므로 한 인클로저 전체가 실패하더라도 저장소 공간이 온라인 상태로 유지됩니다(나머지 인클로저에 실패한 디스크가 그다지 많지 않다고 가정).

  • SAS 연결 60 디스크 저장소 엔클로저

  • 각 저장소 엔클로저는 HBA(호스트 버스 어댑터)를 통한 두 가지 SAS 연결을 통해 파일 서버 클러스터의 모든 노드에 연결되어 있어야 함

    이렇게 하면 성능이 최대화되고 단일 실패 지점이 제거됩니다. 이 요구 사항을 지원하려면 각 저장소 엔클로저 및 서버 노드의 노드 수가 SAS 포트 수의 두 배인 것이 좋습니다(엔클로저의 8개 포트 및 각 노드의 8개 포트).

실제 디스크

  • 저장소 인클로저당 48 7200rpm HDD(4개 엔클로저의 총 192개 HDD)

    7,200rpm HDD는 많은 용량을 제공하면서도 회전 속도가 더 높은 HDD보다 전력 소모가 적고 비용이 저렴하지만 충분한 수의 SSD와 함께 사용할 경우 이 솔루션에서 여전히 좋은 성능을 제공합니다.

    4개의 60베이 엔클로저에서 4TB HDD와 800GB SSD를 사용할 경우 이 솔루션에서는 파일 서버 클러스터당 약 804TB의 원시 저장소 풀 용량을 제공합니다. 복원력, 백업용 저장소 및 저장소 공간 복구를 위한 사용 가능 공간을 고려하면, 계산 및 관리 가상 컴퓨터에 대해 약 164TiB의 공간이 확보됩니다(TiB는 10지수( 밑 10) 표기 대신 2진수(밑 2) 표기를 사용하여 계산되는 테라바이트임).

  • 저장소 인클로저당 12개 SSD(4개 저장소 엔클로저의 총 48개 SSD)

    저장소 공간에서는 SSD를 사용하여 자주 액세스하는 데이터를 위한 더 빠른 저장소 계층을 만듭니다. 또한 영구 다시 쓰기 캐시에 SSD를 사용하여 임의 쓰기의 대기 시간을 줄입니다.

    자세한 내용은 Windows Server에서 제공되는 저장소 공간의 새로운 기능을 참조하세요.

  • 모든 디스크는 이중 포트 SAS 디스크여야 함

    그러면 각 디스크를 저장소 엔클로저에 포함된 SAS 확장기를 통해 장애 조치(failover) 클러스터의 모든 노드에 연결할 수 있습니다.

파일 서버 클러스터

  • 4노드 파일 서버 클러스터 하나

    4개 노드를 사용하여 모든 저장소 엔클로저가 모든 노드에 연결되고 2개 노드가 실패하더라도 좋은 성능을 유지할 수 있으므로 유지 관리의 긴급성이 감소합니다.

  • 계산 클러스터 하나의 저장소를 호스트하는 파일 서버 클러스터 하나

    계산 클러스터를 추가하는 경우 4노드 파일 서버 클러스터도 하나 추가하세요. 관리 서버 클러스터당 최대 4개의 파일 서버 클러스터와 4개의 계산 클러스터를 추가할 수 있습니다. 첫 번째 파일 서버 클러스터도 관리 클러스터의 저장소를 호스트합니다.

    추가 클러스터(배율 단위라고도 함)를 사용하면 환경의 배율을 늘려 더 많은 가상 컴퓨터와 테넌트를 지원할 수 있습니다.

클러스터 노드

  • 6코어 CPU 두 개

    네트워크 트래픽을 직접 처리하는 RDMA 네트워크 카드에서 대부분의 트래픽을 처리하므로 파일 서버 클러스터에는 가장 강력한 CPU가 필요하지 않습니다.

  • 64 GB RAM

    파일 서버 클러스터는 저장소 계층을 사용하여 CSV 캐시(일반적으로 클러스터된 파일 서버에서 RAM을 가장 많이 사용하는 것 중 하나) 사용을 방지하므로 RAM이 많이 필요하지 않습니다.

  • 기본 RAID 컨트롤러를 사용하여 두 개의 HDD를 RAID-1(미러)로 설정

    여기의 각 노드에 Windows Server가 설치됩니다. 옵션으로 SSD를 하나 또는 두 개 사용할 수 있습니다. SSD는 비용은 더 나가지만, 전력을 덜 소모하고 시작, 설정 및 복구 시간이 더 빠르고 향상된 안정성을 제공합니다. SSD가 실패할 경우 노드에 Windows Server를 다시 설치해도 된다면 단일 SSD를 사용하여 비용을 줄일 수 있습니다.

클러스터 노드 HBA

  • 동일한 4포트 6Gbps SAS HBA 두 개

    각 HBA에 모든 저장소 엔클로저에 대한 연결이 하나 있으므로 모든 저장소 엔클로저에 대한 연결은 총 두 개입니다. 따라서 처리량이 최대화되고 중복 경로를 제공하며 기본 제공 RAID 기능을 사용할 수 없습니다.

클러스터 노드 네트워크 인터페이스 카드

  • RDMA를 지원하는 이중 포트 10기가비트 이더넷 네트워크 인터페이스 카드 하나

    이 카드는 파일 서버 클러스터와 파일 서버 클러스터에 가상 하드 디스크 파일을 저장하는 계산 및 관리 클러스터 사이의 저장소 네트워크 인터페이스로 사용됩니다.

    클러스터 사이의 랙에서 라우터를 사용하려는 경우(솔루션에 계산 및 파일 서버 클러스터를 추가하는 경우에 적합) 카드에서 RDMA를 지원해야만 성능과 iWARP가 최대화됩니다. 이 카드는 SMB 3 및 SMB 다이렉트를 사용하여 내결함성을 제공하며, 이때 각 포트는 별도의 서브넷에 연결됩니다.

    RDMA 지원이 있는 인증된 네트워크 인터페이스 카드 목록은 Windows Server 카탈로그를 참조하세요.

  • RDMA를 지원하지 않는 이중 포트 기가비트 또는 10기가비트 이더넷 네트워크 인터페이스 카드 하나

    이 카드는 관리 클러스터와 파일 서버 클러스터 사이에서 통신하며, 이때 각 포트는 별도의 서브넷에 연결됩니다. 이 카드는 관리 및 계산 클러스터의 Hyper-V 가상 스위치를 사용하여 통신하고, RDMA 통신을 사용하지 않으므로 RDMA 지원이 필요하지 않습니다.

    인증된 네트워크 인터페이스 카드 목록은 Windows Server 카탈로그를 참조하세요.

  • 원격 관리를 위한 기가비트 이더넷 네트워크 인터페이스 하나

    이 ILO(Integrated Lights-Out), BMC(베이스보드 관리 컨트롤러) 또는 온보드 네트워킹 어댑터는 관리 네트워크에 연결합니다.

1.2. 파일 서버 클러스터 소프트웨어 구성 설계

파일 서버 클러스터에 대해 권장되는 소프트웨어 구성 요소는 다음과 같습니다.

기술

지침

운영 체제

  • Server Core가 있는 Windows Server 2012 R2 Standard 설치 옵션

    Windows Server 2012 R2 Standard를 사용하면 고비용 버전을 사용할 때보다 비용이 절감되고, Server Core 설치 옵션은 보안 공간을 낮게 유지하므로, 결과적으로 파일 서버 클러스터에 설치해야 하는 소프트웨어 업데이트 양을 제한합니다.

장애 조치(failover) 클러스터링

  • 스테일 아웃 파일 서버 하나

    이 클러스터된 파일 서버를 사용하면 여러 노드에서 동시에 액세스할 수 있는 계속 사용 가능한 파일 공유를 호스트할 수 있습니다.

MPIO

  • 각 노드에서 MPIO(다중 경로 I/O)를 사용하도록 설정

    이렇게 하면 저장소 엔클로저의 실제 디스크에 대한 여러 경로가 결합되어, 복원 기능이 제공되고 실제 경로 간에 부하가 분산됩니다.

저장소 풀

  • 파일 서버 클러스터당 클러스터된 저장소 풀 세 개

    저장소 풀을 다른 노드로 장애 조치(failover)하는 데 필요한 시간을 최소화할 수 있습니다.

  • 작업(workload) 풀당 4개의 저장소 엔클로저 각각의 SSD 5개, HDD 16개. 기본 작업(workload)에 대해 풀당 총 84개의 디스크가 있게 됩니다.

    이렇게 하면 SSD가 충분하여 적절한 저장소 공간을 만들 수 있습니다. 이 경우 데이터가 저장소 엔클로저 간에 분산되므로 저장소 엔클로저 하나가 실패하더라도 나머지 저장소 엔클로저에 실패한 디스크가 너무 많지 않으면 테넌트의 가동 중지 시간이 발생하지 않을 수 있습니다.

  • 백업 풀에 대해 4개의 저장소 엔클로저 각각의 SSD 2개, HDD 16개. 이 풀에는 총 72개의 디스크가 있게 됩니다.

    백업 풀의 SSD는 이중 패리티 복원력 유형을 사용하여 가상 디스크의 쓰기 성능을 향상하기 위한 저널 디스크로 지정됩니다.

  • 핫 스패어 디스크 없음

    대신 항상 각 저장소 풀에 21.9TiB 이상의 사용 가능한 HDD 공간을 유지하고, 각 작업(workload) 풀에 1.5TiB의 사용 가능한 SSD 공간을 유지합니다. 이렇게 하면 저장소 공간에서 데이터를 풀의 여러 디스크로 복사하여 실패한 SSD 최대 1개, 실패한 HDD 3개를 포함하는 저장소 공간을 자동으로 다시 작성하므로, 핫 스페어를 사용할 때보다 실패한 디스크를 복구하는 시간을 크게 줄일 수 있습니다.

    이 솔루션에서는 4TB HDD와 800GB SSD를 사용하므로, 작업(workload) 풀당 사용 가능한 공간이 23.4TB로 유지됩니다.

    이러한 수치를 얻는 방법에 대한 자세한 내용은 소프트웨어 정의 저장소 디자인 고려 사항 가이드소프트웨어 정의 저장소 디자인 계산기를 참조하세요.

저장소 공간

  • 작업(workload) 저장소 풀당 저장소 공간 8개

    이렇게 하면 클러스터의 각 노드에 부하가 분산됩니다(각 풀에서 노드당 저장소 공간 2개).

  • 작업(workload) 데이터에 3방향 미러 공간 사용

    미러 공간은 가상 컴퓨터를 호스트할 때 최고의 성능과 데이터 복원 성능을 제공합니다. 3방향 미러 공간에서는 데이터 복사본이 3개 이상 있게 되므로, 디스크 두 개가 실패하더라도 데이터가 손실되지 않습니다. 패리티 공간은 성능 특성으로 인해 가상 컴퓨터를 호스트하는 데 사용하지 않는 것이 좋습니다.

  • 다음 설정을 사용하여 3방향 미러 공간에서 저장소 계층, 기본 다시 쓰기 캐시 및 인클로저 인식을 구성합니다. 높은 처리량과 낮은 대기 시간을 위해 이 구성에 4개의 열을 사용하는 것이 좋습니다.

    자세한 내용은 소프트웨어 정의 저장소 디자인 고려 사항 가이드를 참조하세요.

    설정

    ResiliencySettingName

    Mirror

    NumberOfDataCopies

    3

    NumberOfColumns

    4

    StorageTierSizes

    SSD: .54 TiB; HDD: 8.79 TiB(800GB SSD 및 4TB HDD를 사용한다고 가정)

    IsEnclosureAware

    $true

  • 모든 저장소 공간에서 고정 프로비저닝 사용

    고정 프로비저닝을 사용하면 저장소 계층과 장애 조치(failover) 클러스터링을 사용할 수 있습니다. 씬 프로비저닝에서는 둘 다 사용할 수 없습니다.

  • 저장소 계층 없이 4GB의 양방향 미러 공간 하나를 추가로 만들기

    이 저장소 공간은 파일 서버 클러스터의 감사 디스크로 사용되고 관리 및 계산 클러스터의 파일 공유 감사에 사용됩니다. 이렇게 하면 2개의 실패한 노드나 노드 사이의 네트워크 문제 발생 시 파일 서버 클러스터가 무결성(쿼럼)을 유지할 수 있습니다.

  • 백업 풀에 대해 다음 설정을 사용하여 이중 패리티 복원력 유형 및 7개 열로 16개의 가상 디스크를 만듭니다.

    설정

    ResiliencySettingName

    Parity

    NumberOfDataCopies

    3

    Size

    7.53 TiB

    NumberOfColumns

    7

    IsEnclosureAware

    $true

파티션

  • 저장소 공간당 GPT 파티션 하나

    이렇게 하면 솔루션을 더 단순하게 유지할 수 있습니다.

볼륨

  • 파티션/저장소 공산당 NTFS 파일 시스템으로 포맷된 볼륨 하나

    이번 릴리스의 Windows Server에서는 이 솔루션에 ReFS를 사용하지 않는 것이 좋습니다.

  • 백업 저장에 사용되는 가상 디스크에서 데이터 중복 제거를 사용하도록 설정합니다.

CSV

  • 볼륨당 CSV 볼륨 하나(저장소 공간당 하나의 볼륨 및 파티션 포함)

    이렇게 하면 부하가 파일 서버 클러스터의 모든 노드에 분산됩니다. 클러스터 쿼럼을 유지하는 데 사용되는 4GB 저장소 공간에 CSV 볼륨을 만들지 마세요.

BitLocker 드라이브 암호화

  • 폭넓게 사용하기 전에 BitLocker 드라이브 암호화 성능 테스트

    BitLocker 드라이브 암호화를 사용하면 각 CSV 볼륨의 저장소에 있는 모든 데이터를 암호화하여 물리적 보안을 향상할 수 있지만, 이렇게 하려면 솔루션의 성능에 상당한 영향을 줄 수 있습니다.

지속적으로 사용 가능한 파일 공유

  • CSV 볼륨/파티션/저장소 공간당 계속 사용할 수 있는 SMB 파일 공유 하나

    이렇게 하면 관리가 단순해지고(기본 저장소 공간당 공유 하나), 로드가 파일 서버 클러스터의 모든 노드에 분산됩니다.

  • 널리 배포하기 전에 파일 공유에서 암호화된 데이터 액세스(SMB 3 암호화)의 성능 테스트

    공격자가 데이터 센터 네트워크에 액세스할 수 있는 물리적 보안 위반을 방지해야 하는 파일 공유에서 SMB 3 암호화를 사용하여 데이터를 보호할 수 있지만, 이렇게 하면 RDMA 네트워크 어댑터를 사용하여 얻는 성능 이점이 대부분 없어집니다.

업데이트

  • Virtual Machine Manager와 함께 Windows Server Update Services 사용

    WSUS(Windows Server Update Services)에서 파일 서버 노드에 대해 3~4개 컴퓨터 그룹을 만들고, 각 그룹에 노드를 1~2개 추가합니다. 이 설정을 사용하면 먼저 서버 하나를 업데이트하고 해당 기능을 모니터링한 다음 나머지 서버를 한 번에 하나씩 업데이트할 수 있으므로 나머지 서버 전체에 부하가 계속 분산됩니다.

    자세한 내용은 VMM에서 패브릭 업데이트 관리(또는 Virtual Machine Manager를 사용하지 않는 경우 조직에 Windows Server Update Services 배포)를 참조하세요.

  • UEFI 및 펌웨어 업데이트에 클러스터 인식 업데이트 사용

    WSUS를 통해 분산할 수 없는 항목은 클러스터 인식 업데이트를 사용하여 업데이트합니다. 이런 항목은 클러스터 노드의 BIOS(UEFI)와 더불어 네트워크 어댑터, SAS HBA, 드라이브 및 저장소 엔클로저의 펌웨어일 수 있습니다.

Data Protection Manager

  • DPM(Data Protection Manager)을 사용하여 파일 서버 클러스터에 대한 크래시 일관성 백업을 제공할 수 있습니다. 또한 계산 클러스터에서 가상 컴퓨터의 재해 복구에도 DPM 및 Hyper-V 복제를 사용할 수 있습니다.

2단계: 관리 클러스터 설계

이 단계에서는 파일 서버 및 계산 클러스터에 대한 관리 및 인프라 서비스를 모두 실행하는 관리 클러스터를 설계합니다.

참고

이 솔루션에서는 System Center 제품군을 사용한다고 가정하며, 이 제품군은 솔루션을 효율적으로 설정, 관리 및 모니터링하기 위한 강력한 도구를 제공합니다. 그러나, 다른 방법으로 Windows PowerShell과 서버 관리자를 통해 모든 작업을 수행할 수도 있습니다(이 솔루션 규모를 볼 때 Windows PowerShell이 더 적절할 수 있음). System Center를 사용하지 않도록 선택한다면, 여기서 설명하는 만큼 강력한 관리 클러스터가 필요하지 않기 때문일 수 있으며 기존 서버나 클러스터를 사용할 수 있습니다.

2.1. 관리 클러스터 하드웨어 설계

다음은 파일 서버 및 계산 클러스터에 대한 관리 및 인프라 서비스를 모두 실행하는 관리 클러스터에 대해 권장되는 하드웨어 구성 요소입니다.

구성 요소

지침

관리 클러스터

  • 4노드 장애 조치(failover) 클러스터 하나

    4개 노드를 사용하면 관리 클러스터에서 클러스터 노드 한 개의 실패를 허용할 수 있고, 6개 노드를 사용하면 두 개 노드 실패를 복원할 수 있습니다. Virtual Machine Manager를 사용하는 관리 클러스터 한 개에서 최대 8,192개의 가상 컴퓨터를 지원할 수 있습니다.

클러스터 노드

  • 8코어 CPU 두 개

    이 클러스터의 가상 컴퓨터는 상당한 양을 처리하므로, 파일 서버 클러스터보다 CPU 처리 능력이 좀 더 많이 필요합니다.

  • 128GB RAM

    관리 가상 컴퓨터를 실행하려면 파일 서버 클러스터를 실행할 때보다 RAM이 더 많이 필요합니다.

  • 기본 RAID 컨트롤러를 사용하여 두 개의 HDD를 RAID-1(미러)로 설정

    여기의 각 노드에 Windows Server가 설치됩니다. 옵션으로 SSD를 하나 또는 두 개 사용할 수 있습니다. SSD는 비용은 더 나가지만, 전력을 덜 소모하고 시작, 설정 및 복구 시간이 더 빠르고 향상된 안정성을 제공합니다. SSD가 실패할 경우 노드에 Windows Server를 다시 설치해도 된다면 단일 SSD를 사용하여 비용을 줄일 수 있습니다.

네트워크 인터페이스 카드

  • RDMA를 지원하는 이중 포트 10기가비트 이더넷 네트워크 인터페이스 카드 하나

    이 카드는 관리 가상 컴퓨터에서 사용하는 .vhdx 파일에 액세스하기 위해 관리 클러스터와 파일 서버 클러스터 사이에서 통신합니다. 파일 서버와 관리 클러스터 사이의 랙에서 라우터를 사용하려는 경우(솔루션에 파일 서버 클러스터를 추가하는 경우에 적합) 카드에서 RDMA를 지원해야만 성능과 iWARP가 최대화됩니다. 이 카드는 SMB 3 및 SMB 다이렉트를 사용하여 내결함성을 제공하며, 이때 각 포트는 별도의 서브넷에 연결됩니다.

    RDMA 지원이 있는 인증된 네트워크 인터페이스 카드 목록은 Windows Server 카탈로그를 참조하세요.

  • RDMA를 지원하지 않는 이중 포트 기가비트 또는 10기가비트 이더넷 네트워크 인터페이스 카드 하나

    이 카드는 모든 클러스터 사이의 관리 트래픽을 처리합니다. 이 카드는 VMQ(가상 컴퓨터 큐), Dynamic VMQ, 802.1Q VLAN 태깅 및 GRE 오프로드(NVGRE)를 지원해야 합니다. 이 카드에서는 NIC 팀 구성을 사용하여 두 포트(각각 별도의 서브넷에 연결됨)를 내결함성이 있게 만듭니다.

    이 카드는 RDMA를 사용할 수 없는데 RDMA를 사용하려면 네트워크 카드에 직접 액세스해야 하기 때문입니다. 이 카드는 Hyper-V 가상 스위치와 통신해야 하고, 이 스위치는 네트워크 카드에 대한 직접 액세스를 어렵게 합니다. 내결함성을 위해 SMB 다이렉트 대신 NIC 팀 구성 기술을 사용하므로 SMB 이외의 프로토콜에서 중복 네트워크 연결을 이용할 수 있습니다. QoS(서비스 품질) 규칙을 사용하여 이 연결에서 트래픽의 우선 순위를 지정해야 합니다.

    NVGRE 지원이 있는 인증된 네트워크 인터페이스 카드 목록은 Windows Server 카탈로그를 참조하세요.

  • 원격 관리를 위한 기가비트 이더넷 네트워크 인터페이스 하나

    이 ILO(Integrated Lights-Out), BMC(베이스보드 관리 컨트롤러) 또는 온보드 네트워킹 어댑터는 관리 네트워크에 연결합니다.

2.2. 관리 클러스터 소프트웨어 구성 설계

다음 목록에서는 관리 클러스터에 대해 권장되는 소프트웨어 구성 요소를 개략적으로 설명합니다.

  • Windows Server 2012 R2 Datacenter

  • 장애 조치(failover) 클러스터링

  • 클러스터 인식 업데이트

  • Hyper-V

다음 목록에서는 관리 클러스터의 가상 컴퓨터에서 실행해야 하는 서비스를 개략적으로 설명합니다.

  • AD DS(Active Directory 도메인 서비스), DNS 서버 및 DHCP 서버

  • Windows Server Update Services

  • Windows 배포 서비스

  • Microsoft SQL Server

  • System Center Virtual Machine Manager

  • System Center Virtual Machine Manager 라이브러리 서버

  • System Center Operations Manager

  • System Center Data Protection Manager

  • 관리 콘솔(GUI 설치 옵션이 있는 Windows Server)

  • Microsoft Azure 팩 및 System Center Configuration Manager와 같은 사용 중인 서비스에 따라 추가 가상 컴퓨터가 필요합니다.

참고

각 가상 컴퓨터가 원하는 노드로 장애 조치(failover)되고 네트워크에 대한 연결을 유지할 수 있도록 모든 노드에서 동일한 가상 스위치를 만듭니다.

3단계: 계산 클러스터 설계

이 단계에서는 테넌트에 서비스를 제공하는 가상 컴퓨터를 실행하는 계산 클러스터를 설계합니다.

2.1. 계산 클러스터 하드웨어 설계

계산 클러스터에 대해 권장되는 하드웨어 구성 요소는 다음과 같습니다. 이러한 클러스터는 테넌트 가상 컴퓨터를 수용합니다.

구성 요소

지침

Hyper-V 계산 클러스터

  • 각 계산 클러스터는 32개 노드를 포함하고 최대 2,048개의 Hyper-V 가상 컴퓨터를 호스트합니다. 용량을 추가할 준비가 되면 계산 클러스터(및 512개 테넌트에 대해 8,192개 가상 컴퓨터(테넌트당 VM 8개 가정)를 호스트하는 총 128개 노드를 위한 관련 파일 서버 클러스터)를 3개까지 추가할 수 있습니다.

    자세한 내용은 Windows Server 2012 및 Windows Server 2012 R2에서 Hyper-V 확장성을 참조하세요.

클러스터 노드

  • 8코어 CPU 두 개

    일반적인 작업 조합에서는 8코어 CPU 두 개면 충분하지만 테넌트 가상 컴퓨터에서 계산이 많은 작업을 많이 실행하려면 더 높은 성능의 CPU를 선택합니다.

  • 128GB RAM

    많은 수의 가상 컴퓨터(아마도 클러스터의 모든 노드가 실행 중일 때 노드당 64개)를 실행하려면 파일 서버 클러스터에서보다 RAM이 더 많이 필요합니다. 평균적으로 가상 컴퓨터당 2GB 이상을 제공하려면 RAM을 더 많이 사용합니다.

  • 기본 RAID 컨트롤러를 사용하여 두 개의 HDD를 RAID-1(미러)로 설정

    여기의 각 노드에 Windows Server가 설치됩니다. 옵션으로 SSD를 하나 또는 두 개 사용할 수 있습니다. SSD는 비용은 더 나가지만, 전력을 덜 소모하고 시작, 설정 및 복구 시간이 더 빠르고 향상된 안정성을 제공합니다. SSD가 실패할 경우 노드에 Windows Server를 다시 설치해도 된다면 단일 SSD를 사용하여 비용을 줄일 수 있습니다.

네트워크 인터페이스 카드

  • RDMA를 지원하는 이중 포트 10기가비트 이더넷 네트워크 인터페이스 카드 하나

    이 카드는 가상 컴퓨터에서 사용하는 .vhdx 파일에 액세스하기 위해 파일 서버 클러스터와 통신합니다. 파일 서버와 관리 클러스터 사이의 랙에서 라우터를 사용하려는 경우(솔루션에 파일 서버 클러스터를 추가하는 경우에 적합) 카드에서 RDMA를 지원해야만 성능과 iWARP가 최대화됩니다. 이 카드는 SMB 3 및 SMB 다이렉트를 사용하여 내결함성을 제공하며, 이때 각 포트는 별도의 서브넷에 연결됩니다.

    RDMA 지원이 있는 인증된 네트워크 인터페이스 카드 목록은 Windows Server 카탈로그를 참조하세요.

  • RDMA를 지원하지 않는 이중 포트 기가비트 또는 10기가비트 이더넷 네트워크 인터페이스 카드 하나

    이 카드는 관리 및 테넌트 트래픽을 처리합니다. 이 카드는 VMQ(가상 컴퓨터 큐), Dynamic VMQ, 802.1Q VLAN 태깅 및 GRE 오프로드(NVGRE)를 지원해야 합니다. 이 카드에서는 NIC 팀 구성을 사용하여 두 포트(각각 별도의 서브넷에 연결됨)를 내결함성이 있게 만듭니다.

    이 카드는 RDMA를 사용할 수 없는데 RDMA를 사용하려면 네트워크 카드에 직접 액세스해야 하기 때문입니다. 이 카드는 Hyper-V 가상 스위치와 통신해야 하고, 이 스위치는 네트워크 카드에 대한 직접 액세스를 어렵게 합니다. 내결함성을 위해 SMB 다이렉트 대신 NIC 팀 구성 기술을 사용하므로 SMB 이외의 프로토콜에서 중복 네트워크 연결을 이용할 수 있습니다. QoS(서비스 품질) 규칙을 사용하여 이 연결에서 트래픽의 우선 순위를 지정해야 합니다.

    NVGRE 지원이 있는 인증된 네트워크 인터페이스 카드 목록은 Windows Server 카탈로그를 참조하세요.

  • 원격 관리를 위한 기가비트 이더넷 네트워크 인터페이스 하나

    이 ILO(Integrated Lights-Out), BMC(베이스보드 관리 컨트롤러) 또는 온보드 네트워킹 어댑터는 관리 네트워크에 연결하며 System Center Virtual Machine Manager를 사용하여 운영 체제 미설치 하드웨어에서 클러스터 노드를 설정할 수 있도록 지원합니다. 이 인터페이스는 IPMI(Intelligent Platform Management Interface) 또는 SMASH(Systems Management Architecture for Server Hardware)를 지원해야 합니다.

2.2. 계산 클러스터 소프트웨어 구성 설계

다음 목록에서는 계산 클러스터에 대해 권장되는 소프트웨어 구성 요소를 개략적으로 설명합니다.

  • Windows Server 2012 R2 Datacenter

  • 장애 조치(failover) 클러스터링

  • Hyper-V

  • 데이터 센터 브리징

  • 클러스터 인식 업데이트

다음 단계

이러한 계획 단계를 완료한 후에는 이 솔루션을 구현하는 개략적인 단계을 참조하세요.

참고 항목

변경 내용

날짜

설명

2015년 7월 15일

가상 디스크 디자인에 대한 지침이 업데이트되고, 좀 더 자세한 최신 저장소 디자인 정보를 제공하는 소프트웨어 정의 저장소 디자인 고려 사항 가이드에 대한 링크가 추가되었습니다.

2014년 6월 18일

저장소 공간을 다시 작성하기 위해 각 풀에서 별도로 설정할 사용 가능한 공간에 대한 지침을 업데이트하고 이에 따라 가상 디스크 크기 및 다른 수치 업데이트

2014년 4월 2일

혼동을 주던 SAS 디스크 및 SAS HBA에 대한 Windows 카탈로그 링크 제거

2014년 1월 22일

예비 발행물