Windows Server を使用した Hyper-V ワークロードのコスト効果の高い記憶域の提供: 計画および設計ガイド

 

発行: 2016年4月

適用対象: System Center 2012,Windows Server 2012 R2

このガイドでは、クラウド サービス プラットフォームの一部として Windows Server および Hyper-V で実行される仮想マシンをホストする計算クラスターに対して、ある特定の記憶域ソリューションを計画および設計する方法について説明します。 このソフトウェアで定義される記憶域ソリューションでは、管理が簡単な Windows Server ファイル サーバー クラスターを、Just-a-Bunch-of-Disks (JBOD) エンクロージャおよび記憶域スペースと併用することで、パフォーマンスが高くコスト効果に優れた記憶域を実現し、クラウド プラットフォームを実装する場合に高価な SAN デバイスの必要性を排除します。

このトピックに対する最近の変更については、「変更履歴」を参照してください。

まだの場合は、「Windows Server を使用した Hyper-V ワークロードのコスト効果の高い記憶域の提供」をお読みください。このガイドではソリューションの概要を説明しており、このトピックと合わせてご使用ください。

最初に約 100 のテナントの展開を目標としており (テナントあたり 8 つの仮想マシン)、時間の経過と共に約 500 のテナントまでソリューションを拡張できることを想定しています。 柔軟で包括的な設計のガイドについては、「Software-Defined Storage (SDS) の設計に関する考慮事項のガイド」を参照してください。

次の手順およびに設計に関する決断内容に従って、Hyper-V ワークロード用に Windows Server ベースの記憶域を実装するための計画を策定します。

このガイドの内容

  • 手順 1: ファイル サーバー クラスターの設計

  • 手順 2: 管理クラスターの設計

  • 手順 3: 計算クラスターの設計

  • 次のステップ

手順 1: ファイル サーバー クラスターの設計

この手順では、このソリューションで仮想マシンに記憶域を提供するために使用するファイル サーバー クラスターを設計します。

1.1. ファイル サーバー クラスターのハードウェアの設計

ファイル サーバー クラスター用にお勧めするハードウェア コンポーネントは次のとおりです。 ハードウェアを記憶域スペースとの統合ソリューションとしてテストし、サポートするベンダーからすべての実稼働ハードウェアを購入することをお勧めします。

コンポーネント

ガイドライン

記憶域エンクロージャ

  • 4 つの同一の記憶域エンクロージャ (4 つのエンクロージャで合計 240 のディスク)

    エンクロージャが 4 つあれば、1 つのエンクロージャ全体が故障しても記憶域スペースはオンラインのままです (残りのエンクロージャに障害発生ディスクが過度に存在しないことが前提)。

  • SAS に接続された 60 のディスクの記憶域エンクロージャ

  • 各記憶域エンクロージャは、ホスト バス アダプター (HBA) 経由で 2 つの SAS 接続を介してファイル サーバー クラスターのすべてのノードに接続する必要があります。

    これにより、パフォーマンスは最大限に向上し、単一障害点が排除されます。 この要件をサポートするには、各記憶域エンクロージャおよびサーバー ノードが、ノード数の 2 倍の SAS ポート数を備えることが理想的です (エンクロージャに 8 つのポート、各ノードに 8 つのポート)。

物理ディスク

  • 記憶域エンクロージャごとに 7200 rpm の HDD が 48 (4 つのエンクロージャで合計 192 の HDD)

    7,200 rpm の HDD は大容量を提供し、その電力消費とコストは、回転速度がより高速の HDD より少なくて済みます。7,200 rpm の HDD は、十分な数の SSD と組み合わせると、このソリューションでも優れたパフォーマンスを発揮します。

    4 TB の HDD と 800 GB の SSD を 4 つの 60 ベイ エンクロージャに使用した場合、このソリューションでは、ファイル サーバー クラスターあたり、約 804 TB の生の記憶域プール容量を提供します。 回復後、バックアップ用の記憶域および記憶域スペースを修復するための空き領域が考慮され、これにより計算および管理用の仮想マシンに約 164 TiB の領域が発生します (TiB は 10 進法 (base 10) ではなく 2 進法 (base 2) を使用して計算されるテラバイトです)。

  • 記憶域エンクロージャごとに 12 の SSD (4 つの記憶域エンクロージャで合計 48 の SSD)

    記憶域スペースでは、SSD を使用して、頻繁にアクセスされるデータ用に高速な記憶域階層を作成します。 また、ランダム書き込みの待機時間を短縮する永続的なライト バック キャッシュとしても SSD を使用します。

    詳細については、「Windows Server での記憶域スペースの新機能」を参照してください。

  • すべてのディスクをデュアル ポートの SAS ディスクとする必要があります。

    これにより、記憶域エンクロージャに含まれる SAS Expander 経由でフェールオーバー クラスターのすべてのノードに各ディスクを接続することができます。

ファイル サーバー クラスター

  • 1 つの 4 ノード ファイル サーバー クラスター

    4 つのノードの場合は、すべての記憶域エンクロージャがすべてのノードに接続されるので、2 つのノードで障害が発生しても優れたパフォーマンスを維持できます。これにより、メンテナンスの緊急度が減少します。

  • 1 つのファイル サーバー クラスターで 1 つの計算クラスターの記憶域をホストする

    計算クラスターを追加する場合は、さらに、4 ノード ファイル サーバー クラスターを 1 つ追加します。 ファイル サーバー クラスターと計算クラスターはそれぞれ、管理クラスターあたり最大で 4 つまで追加できます。 1 番目のファイル サーバー クラスターは、管理クラスターの記憶域もホストします。

    追加のクラスター (スケール ユニットとも呼ばれる) により、環境のスケールを拡大して、より多くの仮想マシンとテナントをサポートすることができます。

クラスター ノード

  • 2 つの 6 コア CPU

    トラフィックのほとんどは RDMA ネットワーク カード (ネットワーク トラフィックを直接処理する) によって処理されるため、ファイル サーバー クラスターに最も強力な CPU は必要ありません。

  • 64 GB の RAM

    ファイル サーバー クラスターでは記憶域階層が使用されるため、大量の RAM は必要はありません。記憶域階層は、CSV キャッシュ (通常、クラスター化されたファイル サーバー上の RAM を最も消費する要素の 1 つ) の使用を阻止します。

  • 基本的な RAID コントローラーを使用する RAID-1 (ミラー) にセットアップされた 2 台の HDD

    これは、各ノードで Windows Server がインストールされる場所です。 オプションとして、1 つまたは 2 つの SSD を使用することができます。 SSD はコストが増えますが、電力消費が少なく、スタートアップ、セットアップ、および回復に要する時間が短く、また信頼性の向上を実現できます。 SSD で障害が発生した際にノードへの Windows Server の再インストールを行ってもかまわない場合は、1 つの SSD を使用することでコストを削減できます。

クラスター ノード HBA

  • 2 つの同等な 4 ポート 6 Gbps SAS HBA

    それぞれの HBA は、すべての記憶域エンクロージャとの接続が合計で 2 つ存在するように、すべての記憶域エンクロージャとの接続を 1 つずつ有します。 この場合、スループットが最大限に高められ、冗長パスが確保されますが、組み込み RAID 機能を利用することはできません。

クラスター ノードのネットワーク インターフェイス カード

  • RDMA サポートを備えた、1 つのデュアル ポート 10 ギガビット イーサネット ネットワーク インターフェイス カード

    このカードは、ファイル サーバー クラスターと、計算および管理クラスター (それぞれが、ファイル サーバー クラスターにある仮想ハード ディスクのファイルを格納) との間の記憶域ネットワーク インターフェイスとして機能します。

    クラスターのラックの中間にルーターを使用する場合、このカードにはパフォーマンスを最大限に高めるための RDMA サポートに加えて、iWARP が必要となります。この要件は、追加の計算およびファイル サーバー クラスターをソリューションに追加する際に関係してきます。 このカードでは、SMB 3 と SMB ダイレクトを使用してフォールト トレランスを実現します。この場合、各ポートは個別のサブネットに接続されます。

    RDMA サポートを備えた認定済みのネットワーク インターフェイス カードの一覧は、「Windows Server Catalog」を参照してください。

  • RDMA サポートを備えていない、1 つのデュアル ポート 10 ギガビット イーサネット ネットワーク インターフェイス カード

    このカードでは、各ポートが個別のサブネットに接続された状態で、管理クラスターとファイル サーバー クラスターの間で通信を行います。 このカードは、管理および計算クラスター上の Hyper-V 仮想スイッチ (RDMA 通信を使用できない) で通信を行うため、RDMA サポートを必要としません。

    認定済みのネットワーク インターフェイス カードの一覧は、「Windows Server Catalog」を参照してください。

  • リモート管理のための 1 ギガビット イーサネット ネットワーク インターフェイス

    この Integrated Lights-Out (ILO)、ベースボード管理コントローラー (BMC)、またはオンボード ネットワーク アダプターは、管理ネットワークに接続されます。

1.2. ファイル サーバー クラスター ソフトウェアの構成の設計

ファイル サーバー クラスター用にお勧めするソフトウェア コンポーネントは次のとおりです。

テクノロジ

ガイドライン

オペレーティング システム

  • Server Core インストール オプションを含む Windows Server 2012 R2 Standard

    Windows Server 2012 R2 Standard を使用すれば、より高価なエディションを使用する場合よりコストを低く抑えることができます。Server Core インストール オプションはセキュリティに占有される割合を低く抑えます。これにより、ファイル サーバー クラスターへのインストールが必要なソフトウェア更新プログラムの量が制限されます。

フェールオーバー クラスタリング

  • 1 つのスケール アウト ファイル サーバー

    このクラスター化されたファイル サーバーを使用すれば、複数のノード上で同時にアクセス可能である、継続的に使用可能なファイル共有をホストすることができます。

MPIO

  • 各ノードでのマルチパス I/O (MPIO) の有効化

    これにより、物理ディスクへの複数のパスが記憶域エンクロージャに結合されます。その結果、回復性が得られ、複数の物理的なパスでの負荷分散が行われます。

記憶域プール

  • ファイル サーバー クラスターあたり 3 つのクラスター化された記憶域プール

    これにより、記憶域プールを別のノードにフェールオーバーするために必要な時間が最小になります。

  • ワークロード プールごとの 4 つの記憶域エンクロージャのそれぞれから 5 つの HDD および 16 の HDD (プライマリ ワークロードのプールごとに合計 84 のディスク)

    これにより、適切な記憶域スペースを作成できるように十分な SSD が提供されます。データは複数の記憶域エンクロージャに分散され、いずれかの記憶域エンクロージャで障害が発生してもテナントにダウンタイムは生じません (残りの記憶域エンクロージャに過多の障害発生ディスクが存在しない場合)。

  • バックアップ プールの 4 つの記憶域エンクロージャのそれぞれから 2 つの SSD および 16 の HDD (このプールで合計 72 のディスク)

    バックアップ プールの SSD はデュアル パリティの回復性の種類を使用する仮想ディスクの書き込みのパフォーマンスを高めるため、ジャーナル ディスクとして指定されます。

  • ホット スペア ディスクなし

    代わりに、各記憶域プールに少なくとも 21.9 TiB の HDD 空き領域と、各ワークロード プールに、1.5 TiB の SSD 空き領域を常に保持してください。 これにより、記憶域スペースは、最大で 1 つの SSD と 3 つの HDD で障害が発生した場合に、プール内の複数のディスクにデータをコピーすることにより、記憶域スペースを自動的に再構築できます。結果、ホット スペアを使用する場合と比較して、障害が発生したディスクからの回復に要する時間を大幅に短縮できます。

    4 TB HDD と 800 GB SSD を使用するこのソリューションでは、ワークロード プールあたり 23.4 TB の空き領域が維持されます。

    これらの数値を出す方法の詳細については、「Software-Defined Storage (SDS) の設計に関する考慮事項のガイド」および「Software-Defined Storage (SDS) の設計の計算機」を参照してください。

記憶域スペース

  • ワークロード記憶域プールあたり 8 つの記憶域スペース

    これにより、クラスター内の各ノード間で負荷が分散されます (プールごとに、ノードあたり 2 つの記憶域スペース)。

  • ワークロード データに 3 方向ミラー スペースの使用

    ミラー スペースは、仮想マシンをホストするための最適なパフォーマンスとデータ回復性を提供します。 3 方向ミラー スペースでは、データのコピーが少なくとも 3 つ確実に存在するため、任意の 2 つのディスクで障害が発生しても、データは失われません。 仮想マシンをホストする場合、パフォーマンス特性を理由に、パリティ スペースはお勧めできません。

  • 次の設定を使用して、記憶域階層、既定のライト バック キャッシュ サイズ、およびエンクロージャ認識を備える 3 方向ミラー スペースを作成します。 この構成の 4 つの列は、高いスループットと短い待機時間のバランスをとるために使用することをお勧めします。

    詳細については、「Software-Defined Storage (SDS) の設計に関する考慮事項のガイド」を参照してください。

    設定

    ResiliencySettingName

    Mirror

    NumberOfDataCopies

    3

    NumberOfColumns

    4

    StorageTierSizes

    SSD: .54 TiB HDD: 8.79 TiB (800 GB SSD と 4 TB HDD を想定)

    IsEnclosureAware

    $true

  • すべての記憶域スペースで固定プロビジョニングを使用

    固定プロビジョニングにより、記憶域階層とフェールオーバー クラスタリングを使用できるようになります。このどちらも、仮想プロビジョニングでは動作しません。

  • 追加の 4 GB 双方向ミラー スペースを 1 つ、記憶域階層なしで作成します。

    この記憶域スペースは、ファイル サーバー クラスターの監視ディスクとして使用されるほか、管理および計算クラスターのファイル共有監視にも使用されます。 これにより、ファイル サーバー クラスターは、2 つのノードで障害が発生した場合またはノード間でネットワークの問題が発生した場合に、整合性 (クォーラム) を容易に維持できます。

  • バックアップ プールには、次の設定を使用して、デュアル パリティの回復性の種類および 7 つの列を使用する 16 の仮想ディスクを作成します。

    設定

    ResiliencySettingName

    Parity

    NumberOfDataCopies

    3

    Size

    7.53 TiB

    NumberOfColumns

    7

    IsEnclosureAware

    $true

パーティション

  • 記憶域スペースごとに 1 つの GPT パーティション

    これにより、ソリューションを簡単に維持できます。

ボリューム

  • パーティション/記憶域スペースあたり、NTFS ファイル システムでフォーマットされた 1 つのボリューム

    Windows Server のこのリリースでは、このソリューションに対して ReFS をお勧めしません。

  • バックアップを格納するために使用される仮想ディスク上のデータ重複除去を有効にしてください。

CSV

  • ボリュームあたり 1 つの CSV ボリューム (記憶域スペースあたり 1 つのボリュームおよびパーティション)

    これにより、ファイル サーバー クラスター内のすべてのノードに負荷を分散することができます。 クラスターのクォーラムを維持するために使用される 4 GB の記憶域スペース上に CSV ボリュームを作成しないでください。

BitLocker ドライブ暗号化

  • 広く使用する前に BitLocker ドライブ暗号化のパフォーマンスをテストします。

    BitLocker ドライブ暗号化を使用して各 CSV ボリューム上の記憶域内のすべてのデータを暗号化すれば、物理的なセキュリティは強化されますが、パフォーマンスの面でソリューションに大きな影響があります。

継続的に使用可能なファイル共有

  • CSV ボリューム/ボリューム/パーティション/記憶域スペースあたり、1 つの継続的に使用可能な SMB ファイル共有

    これにより、管理が簡単になり (基盤となる記憶域スペースあたり 1 つの共有)、ファイル サーバー クラスター内のすべてのノードに負荷を分散できます。

  • 広く展開する前にファイル共有において暗号化データ アクセス (SMB 3 暗号化) のパフォーマンスをテストします。

    SMB 3 の暗号化を使用すれば、物理的なセキュリティ侵害 (攻撃者がデータ センター ネットワークにアクセスする) からの保護が必要な、ファイル共有上のデータを保護するのに役立ちます。そうした場合、RDMA ネットワーク アダプターを使用するというパフォーマンス面の利点のほとんどはなくなります。

Updates

  • Windows Server Update Services と Virtual Machine Manager を併用

    Windows Server Update Services (WSUS) でファイル サーバー ノード用に 3 ~ 4 つのコンピューター グループを作成し、1 つまたは 2 つを各グループに追加します。 このセットアップでは、最初に 1 つのサーバーを更新してその機能を監視し、次に残りのサーバー間で負荷が引き続き分散されるように残りのサーバーを 1 つずつ更新することができます。

    詳細については、「VMM でのファブリックの更新の管理」、または、「Windows Server Update Services を組織に展開する」 (Virtual Machine Manager を使用しない場合) を参照してください。

  • UEFI およびファームウェアの更新にクラスター対応更新機能を使用

    クラスター対応更新機能を使用して、WSUS 経由で配布できないものを更新します。 これはほとんどの場合、クラスター ノード用の BIOS (UEFI) と、ネットワーク アダプター、SAS HBA、ドライブ、および記憶域エンクロージャ用のファームウェアを意味します。

Data Protection Manager

  • Data Protection Manager (DPM) を使用すると、ファイル サーバー クラスターのクラッシュ整合バックアップを実現できます。 また、計算クラスターでの仮想マシンの障害回復のために DPM および Hyper-V レプリケーションを使用できます。

手順 2: 管理クラスターの設計

この手順では、ファイル サーバーおよび計算クラスターのすべての管理サービスおよびインフラストラクチャ サービスを実行する管理クラスターを設計します。

注意

このソリューションでは、System Center 製品セットを使用することを前提とします。これは、このソリューションのセットアップ、管理、および監視を効率化する強力なツールです。 ただし、別の方法として、Windows PowerShell およびサーバー マネージャー経由ですべてのタスクを実行できます (ただし、このソリューションの規模からして、Windows PowerShell がより適切だということがわかるでしょう)。 System Center を使用しない場合は、ここで説明するほど強力な管理クラスターは多分必要ないでしょう。そして、既存のサーバーまたはクラスターを使用できる可能性があります。

2.1. 管理クラスター ハードウェアの設計

ここでは、ファイル サーバーおよび計算クラスターに対するすべての管理サービスおよびインフラストラクチャ サービスを実行するクラスター用にお勧めするハードウェア コンポーネントを示します。

コンポーネント

ガイドライン

管理クラスター

  • 1 つの 4 ノード フェールオーバー クラスター

    4 つのノードを使用すると、管理クラスター内の 1 つのクラスター ノードでの障害発生を許容できます。2 つのノードの障害発生からの回復には 6 つのノードを使用します。 仮想マシン マネージャーを使用する 1 つの管理クラスターでは、最大で 8,192 の仮想マシンをサポートできます。

クラスター ノード

  • 2 つの 8 コア CPU

    このクラスター上の仮想マシンは、大量の処理をこなし、ファイル サーバー クラスターの場合より、もう少し強力な CPU を必要とします。

  • 128 GB の RAM

    管理用の仮想マシンを実行するには、ファイル サーバー クラスターの場合よりも多くの RAM が必要となります。

  • 基本的な RAID コントローラーを使用する RAID-1 (ミラー) にセットアップされた 2 台の HDD

    これは、各ノードで Windows Server がインストールされる場所です。 オプションとして、1 つまたは 2 つの SSD を使用することができます。 SSD はコストが増えますが、電力消費が少なく、スタートアップ、セットアップ、および回復に要する時間が短く、また信頼性の向上を実現できます。 SSD で障害が発生した際にノードへの Windows Server の再インストールを行ってもかまわない場合は、1 つの SSD を使用することでコストを削減できます。

ネットワーク インターフェイス カード

  • RDMA サポートを備えた、1 つのデュアル ポート 10 ギガビット イーサネット ネットワーク インターフェイス カード

    このカードは、管理クラスターとファイル サーバー クラスターとの間で通信を行い、管理仮想マシンで使用される .vhdx ファイルへのアクセスを行います。 ファイル サーバーおよび管理クラスターのラックの中間にルーターを使用する場合、このカードにはパフォーマンスを最大限に高めるための RDMA サポートに加えて、iWARP が必要となります。この要件は、追加のファイル サーバー クラスターをソリューションに追加する際に関係してきます。 このカードでは、SMB 3 と SMB ダイレクトを使用してフォールト トレランスを実現します。この場合、各ポートは個別のサブネットに接続されます。

    RDMA サポートを備えた認定済みのネットワーク インターフェイス カードの一覧は、「Windows Server Catalog」を参照してください。

  • RDMA サポートを備えていない、1 つのデュアル ポート 10 ギガビット イーサネット ネットワーク インターフェイス カード

    このカードは、すべてのクラスター間で管理トラフィックを処理します。 カードでは、仮想マシン キュー (VMQ)、Dynamic VMQ、802.1Q VLAN タグ付け、および GRE 負荷軽減 (NVGRE) のサポートを必要とします。 カードは、NIC チーミングを使用して、2 つのポート (それぞれを個別のサブネットに接続) をフォールト トレラント状態にします。

    このカードで RDMA を利用することはできません。その理由は、RDMA がネットワーク カードへの直接アクセスを必要とすること、このカードが Hyper-V 仮想スイッチ (ネットワーク カードへの直接アクセスを隠す) との通信を必要とすることにあります。 このカードでは、SMB 以外のプロトコルが冗長ネットワーク接続を利用できるように、SMB Direct ではなく、フォールト トレランス用の NIC チーミング テクノロジを使用します。 サービス品質 (QoS) 規則に従って、この接続でのトラフィックの優先順位を設定する必要があります。

    NVGRE サポートを備えた認定済みのネットワーク インターフェイス カードの一覧は、「Windows Server Catalog」を参照してください。

  • リモート管理のための 1 ギガビット イーサネット ネットワーク インターフェイス

    この Integrated Lights-Out (ILO)、ベースボード管理コントローラー (BMC)、またはオンボード ネットワーク アダプターは、管理ネットワークに接続されます。

2.2. 管理クラスター ソフトウェアの構成の設計

次の一覧では、管理クラスター用にお勧めするソフトウェア コンポーネントの概要を説明します。

  • Windows Server 2012 R2 Datacenter

  • フェールオーバー クラスタリング

  • クラスター対応更新

  • Hyper-V

次の一覧では、管理クラスター上の仮想マシンで実行する必要があるサービスの概要を説明します。

  • Active Directory ドメイン サービス (AD DS)、DNS サーバー、および DHCP サーバー

  • Windows Server Update Services

  • Windows 展開サービス

  • Microsoft SQL Server

  • System Center Virtual Machine Manager

  • System Center Virtual Machine Manager ライブラリ サーバー

  • System Center Operations Manager

  • System Center Data Protection Manager

  • 管理コンソール (GUI インストール オプションを備えた Windows Server)

  • Windows Azure Pack や System Center Configuration Manager など、使用しているサービスに応じて追加の仮想マシンが必要です。

注意

各仮想マシンが任意のノードにフェールオーバーされ、ネットワークへの接続を維持できるように、すべてのノードに同一の仮想スイッチを作成します。

手順 3: 計算クラスターの設計

この手順では、テナントにサービスを提供する仮想マシンを実行する計算クラスターを設計します。

2.1. 計算クラスター ハードウェアの設計

計算クラスター用にお勧めするハードウェア コンポーネントは次のとおりです。 これらのクラスターには、テナントの仮想マシンが収容されています。

コンポーネント

ガイドライン

Hyper-V 計算クラスター

  • 各計算クラスターは、32 のノードを含み、最大で 2,048 の Hyper-V 仮想マシンをホストします。 さらなる容量を追加する準備ができたら、最大で 3 つの計算クラスター (および 512 テナントに対して 8,192 の仮想マシン (テナントあたり 8 VM を想定) をホストする合計 128 のノードのための関連付けられたファイル サーバー クラスター) を追加することができます。

    詳細については、「Windows Server 2012 および Windows Server 2012 R2 における Hyper-V のスケーラビリティ」を参照してください。

クラスター ノード

  • 2 つの 8 コア CPU

    一般的なワークロードの組み合わせには 2 つの 8 コア CPU で十分です。しかし、テナント仮想マシンで、計算が集中的に行われる大量のワークロードを実行する場合は、パフォーマンスのより高い CPU を選択します。

  • 128 GB の RAM

    多数の仮想マシン (クラスターのすべてのノードが実行されているときは、おそらくノードあたり 64 ) を実行するには、ファイル サーバー クラスターの場合よりも多くの RAM が必要です。 仮想マシンあたり平均して 2 GB を超える容量を提供する場合は、使用する RAM を増やします。

  • 基本的な RAID コントローラーを使用する RAID-1 (ミラー) にセットアップされた 2 台の HDD

    これは、各ノードで Windows Server がインストールされる場所です。 オプションとして、1 つまたは 2 つの SSD を使用することができます。 SSD はコストが増えますが、電力消費が少なく、スタートアップ、セットアップ、および回復に要する時間が短く、また信頼性の向上を実現できます。 SSD で障害が発生した際にノードへの Windows Server の再インストールを行ってもかまわない場合は、1 つの SSD を使用することでコストを削減できます。

ネットワーク インターフェイス カード

  • RDMA サポートを備えた、1 つのデュアル ポート 10 ギガビット イーサネット ネットワーク インターフェイス カード

    このカードは、ファイル サーバー クラスターとの通信を行い、仮想マシンで使用される .vhdx ファイルへのアクセスを行います。 ファイル サーバーおよび管理クラスターのラックの中間にルーターを使用する場合、このカードにはパフォーマンスを最大限に高めるための RDMA サポートに加えて、iWARP が必要となります。この要件は、追加のファイル サーバー クラスターをソリューションに追加する際に関係してきます。 このカードでは、SMB 3 と SMB ダイレクトを使用してフォールト トレランスを実現します。この場合、各ポートは個別のサブネットに接続されます。

    RDMA サポートを備えた認定済みのネットワーク インターフェイス カードの一覧は、「Windows Server Catalog」を参照してください。

  • RDMA サポートを備えていない、1 つのデュアル ポート 10 ギガビット イーサネット ネットワーク インターフェイス カード

    このカードは、管理およびテナントのトラフィックを処理します。 カードでは、仮想マシン キュー (VMQ)、Dynamic VMQ、802.1Q VLAN タグ付け、および GRE 負荷軽減 (NVGRE) のサポートを必要とします。 カードは、NIC チーミングを使用して、2 つのポート (それぞれを個別のサブネットに接続) をフォールト トレラント状態にします。

    このカードで RDMA を利用することはできません。その理由は、RDMA がネットワーク カードへの直接アクセスを必要とすること、このカードが Hyper-V 仮想スイッチ (ネットワーク カードへの直接アクセスを隠す) との通信を必要とすることにあります。 このカードでは、SMB 以外のプロトコルが冗長ネットワーク接続を利用できるように、SMB Direct ではなく、フォールト トレランス用の NIC チーミング テクノロジを使用します。 サービス品質 (QoS) 規則に従って、この接続でのトラフィックの優先順位を設定する必要があります。

    NVGRE サポートを備えた認定済みのネットワーク インターフェイス カードの一覧は、「Windows Server Catalog」を参照してください。

  • リモート管理のための 1 ギガビット イーサネット ネットワーク インターフェイス

    この Integrated Lights-Out (ILO)、ベースボード管理コントローラー (BMC)、またはオンボード ネットワーク アダプターは、管理ネットワークに接続され、System Center の Virtual Machine Manager を使用してベア メタル ハードウェアからクラスター ノードをセットアップすることを可能にします。 インターフェイスでは、Intelligent Platform Management Interface (IPMI) または Systems Management Architecture for Server Hardware (SMASH) をサポートする必要があります。

2.2. 計算クラスター ソフトウェアの構成の設計

次の一覧では、計算クラスター用にお勧めするソフトウェア コンポーネントの概要を説明します。

  • Windows Server 2012 R2 Datacenter

  • フェールオーバー クラスタリング

  • Hyper-V

  • データ センター ブリッジング

  • クラスター対応更新

次のステップ

この計画手順を完了したら、「このソリューションを実装する手順の概要」を参照してください。

関連項目

変更履歴

日付

説明

2015 年 7 月 15 日

仮想ディスクの設計ガイドの更新、より詳細で新しい記憶域の設計に関する情報が提供される「Software-Defined Storage (SDS) の設計に関する考慮事項のガイド」へのリンクの追加

2014 年 6 月 18 日

記憶域スペースを再構築するために各プールで確保すべき空き容量についてのガイダンスを更新、および仮想ディスクのサイズおよびその他の数値を適宜更新

2014 年 4 月 2 日

混乱を避けるために、SAS ディスクおよび SAS HBA への Windows カタログのリンクを削除

2014 年 1 月 22 日

予備の発行