Fournir un stockage économique pour les charges de travail Hyper-V à l'aide de Windows Server : guide de planification et de conception

 

S'applique à: System Center 2012, Windows Server 2012 R2

Ce guide explique comment planifier et concevoir une solution de stockage spécifique pour des clusters de calcul hébergeant des ordinateurs virtuels qui exécutent Windows Server et Hyper-V, dans le cadre d'une plateforme de service cloud. Cette solution de stockage définie par logiciel utilise un cluster de serveurs de fichiers Windows Server facile à gérer, des boîtiers JBoD et des espaces de stockage pour obtenir un modèle de stockage économique et très performant qui évite les appareils SAN onéreux dans l'implémentation d'une plateforme cloud.

Pour obtenir la liste des modifications récentes apportées à cette rubrique, consultez la section Historique des modifications de cette rubrique.

Si vous ne l’avez pas encore fait, lisez le Fournir un stockage économique pour les charges de travail Hyper-V à l'aide de Windows Server. Ce guide constitue une présentation de cette solution et doit être utilisé avec cette rubrique.

Nous supposons que vous voulez cibler un premier déploiement d'environ 100 clients (avec huit ordinateurs virtuels par client), avec la possibilité d'étendre la solution à environ 500 clients au fil du temps. Pour obtenir des conseils pour une conception plus flexible et plus complète, consultez le Guide de la conception de stockage défini par logiciel.

Utilisez les procédures et les choix de conception suivants pour planifier l'implémentation d'un stockage Windows Server avec des charges de travail Hyper-V.

Contenu de ce guide :

  • Étape 1 : Concevoir un cluster de serveurs de fichiers

  • Étape 2 : Concevoir un cluster de gestion

  • Étape 3 : Concevoir un cluster de calcul

  • Étapes suivantes

Étape 1 : Concevoir un cluster de serveurs de fichiers

Dans cette étape, créez le cluster de serveurs de fichiers utilisé pour fournir le stockage aux ordinateurs virtuels de cette solution.

1.1. Concevoir la configuration matérielle du cluster de serveurs de fichiers

Voici les composants matériels que nous recommandons pour les clusters de serveurs de fichiers : Nous vous recommandons d’acheter l’ensemble de votre matériel de production auprès d’un fournisseur qui teste et prend en charge son matériel en tant que solution intégrée aux espaces de stockage.

Composant

Recommandations

Boîtiers de stockage

  • Quatre boîtiers de stockage identiques (un total de 240 disques répartis dans les quatre boîtiers)

    L'utilisation de quatre boîtiers garantit que les espaces de stockage restent en ligne même en cas de défaillance d'un boîtier entier (en supposant que le nombre de disques défaillants n'est pas trop important dans les boîtiers restants).

  • Boîtiers de stockage de 60 disques avec connexion SAS

  • Chaque boîtier de stockage doit être connecté au moyen de deux connexions SAS (Host Bus) à tous les nœuds de clusters de serveurs de fichiers au moyen d’un adaptateur HBA

    Cela optimise les performances et évite le point de défaillance unique. Pour ce faire, chaque boîtier de stockage et chaque nœud de serveur doivent idéalement comporter deux fois plus de ports SAS qu’il n’y a de nœuds (8 ports sur le boîtier et 8 ports sur chaque nœud).

Disques physiques

  • 48 disques durs 7 200 tours/m par boîtier de stockage (un total de 192 disques durs répartis dans les quatre boîtiers)

    Les disques durs de 7 200 tours/m fournissent une grande capacité tout en consommant moins d'électricité. Par ailleurs, ils sont plus économiques que les disques durs dotés d'une vitesse de rotation plus élevée. Ils présentent de bonnes performances dans cette solution quand ils sont associés à un nombre suffisant de disques SSD.

    Si vous utilisez des disques durs de 4 To et des disques SSD de 800 Go répartis dans quatre boîtiers de 60 baies, cette solution fournit environ 804 To de capacité brute de pool de stockage par cluster de serveurs de fichiers. En tenant compte de la résilience, du stockage de sauvegardes et de l’espace libre pour la reconstruction des espaces de stockage, vous obtenez environ 164 Tio d’espace pour le calcul et la gestion des machines virtuelles (un Tio est un téraoctet calculé à l’aide de la notation binaire (base 2) au lieu de la notation décimale (base 10)).

  • 12 disques SSD par boîtier de stockage (un total de 48 disques SSD répartis dans les quatre boîtiers)

    Les espaces de stockage utilisent des disques SSD pour créer un niveau de stockage plus rapide pour les données fréquemment utilisées. Ils utilisent également des disques SSD pour un cache en écriture différée persistant qui réduit la latence des écritures aléatoires.

    Pour plus d’informations, consultez Nouveautés des espaces de stockage dans Windows Server.

  • Tous les disques doivent être équipés de deux ports SAS

    Cela permet à chaque disque d’être connecté à tous les nœuds du cluster de basculement au moyen des développeurs SAS inclus dans les boîtiers de stockage.

Clusters de serveurs de fichiers

  • Un cluster de serveurs de fichiers à quatre nœuds

    Avec quatre nœuds, tous les boîtiers de stockage sont connectés à tous les nœuds et vous pouvez maintenir de bonnes performances même en cas de défaillance de deux nœuds, ce qui réduit l’urgence de la maintenance.

  • Un cluster de serveurs de fichiers héberge le stockage d'un cluster de calcul

    Si vous ajoutez un cluster de calcul, ajoutez aussi un autre cluster de serveurs de fichiers à quatre nœuds. Vous pouvez ajouter jusqu'à quatre clusters de serveurs de fichiers et quatre clusters de calcul par cluster de gestion. Le premier cluster de serveurs de fichiers héberge également le stockage du cluster de gestion.

    Des clusters supplémentaires (ou unités d'échelle) vous permettent d'augmenter l'échelle de votre environnement pour prendre en charge plusieurs ordinateurs virtuels et clients.

Nœuds du cluster

  • Deux processeurs six cœurs

    Le cluster de serveurs de fichiers n'a pas besoin d'un processeur ultra-puissant, car la plupart du trafic est géré par les cartes réseau RDMA, qui traitent le trafic réseau directement.

  • 64 Go de RAM

    Vous n'avez pas besoin d'une grande quantité de mémoire RAM, car le cluster de serveurs de fichiers utilise des niveaux de stockage, ce qui évite l'utilisation d'un cache de volume partagé de cluster (généralement l'un des plus grands consommateurs de mémoire RAM sur un serveur de fichiers en cluster).

  • Deux disques durs configurés dans un disque RAID-1 (miroir) avec un contrôleur RAID de base

    Emplacement où Windows Server est installé sur chaque nœud. En option, vous pouvez utiliser un ou deux disques SSD. Les disques SSD sont plus onéreux, mais consomment moins d'électricité et offrent des délais de démarrage, de configuration et de récupération plus rapides ainsi qu'une fiabilité accrue. Vous pouvez utiliser un disque SSD unique pour réduire les coûts si vous acceptez de réinstaller Windows Server sur le nœud en cas de défaillance du disque SSD.

Des adaptateurs de bus hôte de nœud de cluster

  • Deux adaptateurs de bus hôte SAS identiques 6 Gbits/s 4 ports

    Chacun des adaptateurs HBA dispose d’une seule connexion à chaque boîtier de stockage, de sorte que chaque boîtier de stockage possède deux connexions en tout. Cela permet d'optimiser le débit et de fournir des chemins d'accès redondants, mais n'autorise pas de fonctionnalité RAID intégrée.

Cartes d'interface réseau de nœud de cluster

  • Une carte d'interface réseau 10 Gigabits Ethernet double port avec prise en charge RDMA

    Cette carte sert d'interface réseau de stockage entre le cluster de serveurs de fichiers et les clusters de calcul et de gestion, chacun d'entre eux stockant ses fichiers de disque dur virtuel sur le cluster de serveurs de fichiers.

    La carte requiert la prise en charge RDMA pour optimiser les performances et iWARP si vous souhaitez utiliser des routeurs entre les racks de clusters, ce qui peut être utile si vous ajoutez des clusters supplémentaires de calcul et de serveurs de fichiers à la solution. Cette carte utilise SMB 3 et SMB Direct pour augmenter la tolérance de panne, chaque port étant connecté à un sous-réseau distinct.

    Pour obtenir la liste des cartes d’interface réseau certifiées avec prise en charge RDMA, consultez le catalogue Windows Server.

  • Une carte d'interface réseau 10 Gigabits Ethernet double port sans prise en charge RDMA

    Cette carte communique avec le cluster de gestion et le cluster de serveurs de fichiers, chaque port étant connecté à un sous-réseau distinct. Elle n'a pas besoin d'une prise en charge RDMA car elle communique avec les commutateurs virtuels Hyper-V sur les clusters de gestion et de calcul, lesquels ne peuvent pas utiliser de communication RDMA.

    Pour obtenir la liste des cartes d’interface réseau certifiées, consultez le catalogue Windows Server.

  • Une carte d'interface réseau 1 Gigabit Ethernet pour la gestion à distance

    Ce contrôleur de gestion de la carte de base (BMC) ILO (Integrated Lights-out) ou carte réseau intégrée se connecte à votre réseau de gestion.

1.2. Concevoir la configuration logicielle du cluster de serveurs de fichiers

Voici les composants logiciels que nous recommandons pour les clusters de serveurs de fichiers :

Technologie

Recommandations

Système d'exploitation

  • Windows Server 2012 R2 Standard avec l’option d’installation minimale

    L’utilisation de Windows Server 2012 R2 Standard est plus économique que celle d’une édition plus onéreuse et l’option d’installation minimale maintient une faible empreinte, ce qui réduit la quantité de mises à jour logicielles à installer sur le cluster de serveurs de fichiers.

Clustering de basculement

  • Un serveur de fichiers avec montée en puissance

    Ce serveur de fichiers en cluster vous permet d'héberger des partages de fichiers constamment disponibles, accessibles simultanément sur plusieurs nœuds.

MPIO

  • Activer Multipath I/O (MPIO) sur chaque nœud

    Cela revient à combiner les différents chemins des disques physiques des boîtiers de stockage, ce qui permet une résilience et un équilibrage de charge sur les chemins physiques.

Pools de stockage

  • Trois pools de stockage en cluster par cluster de serveurs de fichiers

    Cela permet de minimiser le temps requis pour basculer le pool de stockage sur un autre nœud.

  • 5 disques SSD et 16 disques durs dans chacun des quatre boîtiers de stockage par pool de charge de travail, avec un total de 84 disques par pool pour vos charges de travail principales.

    Vous disposez ainsi de suffisamment de disques SSD pour créer les espaces de stockage nécessaires avec une répartition des données entre les boîtiers de stockage. Ainsi, en cas de défaillance de l’un des boîtiers, vos clients n’ont pas à subir de temps d’arrêt (tant que les autres boîtiers de stockage contiennent suffisamment de disques non défaillants).

  • 2 disques SSD et 16 disques durs dans chacun des quatre boîtiers de stockage d’un pool de sauvegarde, avec un total de 72 disques dans ce pool.

    Les disques SSD du pool de sauvegarde sont désignés comme des disques journaux pour améliorer les performances d’écriture des disques virtuels qui utilisent une résilience de type double parité.

  • Pas de disque d'échange à chaud

    Conservez toujours au minimum 21,9 Tio d’espace libre de disque dur dans chacun des pools de stockage, plus 1,5 Tio d’espace disque SSD dans chacun des pools de charge de travail. Ainsi, les espaces de stockage pourront être reconstruits automatiquement en cas de défaillance d’un disque SSD et de trois disques durs maximum par la copie des données sur plusieurs disques du pool. De cette façon, le temps de récupération du disque défaillant est considérablement réduit par rapport à l’utilisation de disques d’échange à chaud.

    Avec cette solution comprenant 4 disques durs de 4 To et des disques SSD de 800 Go, vous pouvez conserver 23,4 To d’espace libre par pool de charge de travail.

    Pour en savoir plus sur les calculs qui ont mené à ces résultats, consultez Guide de la conception de stockage défini par logiciel et Outil de calcul pour la conception de stockage défini par logiciel.

Espaces de stockage

  • Huit espaces de stockage par pool de stockage de charge de travail

    Cela répartit la charge sur chaque nœud du cluster (deux espaces de stockage par nœud, par pool).

  • Utiliser les espaces en miroir triple pour les données de charge de travail

    Les espaces en miroir fournissent les meilleures performances et résilience de données pour l'hébergement des ordinateurs virtuels. Les espaces en miroir triple garantissent au moins trois copies des données, ce qui évite la perte des données en cas de défaillance de l'un des deux disques. Nous ne recommandons pas les espaces de parité pour l'hébergement des ordinateurs virtuels en raison de leurs caractéristiques de performances.

  • Utilisez les paramètres suivants pour configurer vos espaces en miroir triple avec des niveaux de stockage, la taille par défaut du cache en écriture différée et la reconnaissance des boîtiers. Nous vous recommandons quatre colonnes pour cette configuration afin d’équilibrer le débit élevé et la faible latence.

    Pour plus d’informations, consultez le Guide de la conception de stockage défini par logiciel.

    Paramètre

    Valeur

    ResiliencySettingName

    Mirror

    NumberOfDataCopies

    3

    NumberOfColumns

    4

    StorageTierSizes

    Disques SSD : .54 TiB ; disques durs : 8.79 TiB (en supposant des disques SSD de 800 Go et des disques durs de 4 To)

    IsEnclosureAware

    $true

  • Tous les espaces de stockage utilisent une allocation fixe

    L'allocation fixe vous permet d'utiliser les couches de stockage et le clustering de basculement, aucun des deux ne fonctionnant avec une allocation dynamique.

  • Créer un espace en miroir double supplémentaire de 4 Go sans niveaux de stockage

    Cet espace de stockage est utilisé comme disque témoin pour le cluster de serveurs de fichiers et pour les témoins du partage de fichiers pour les clusters de calcul et de gestion. Cela permet au cluster de serveurs de fichiers de maintenir son intégrité (quorum) en cas de défaillance de deux nœuds ou de problèmes réseau entre les nœuds.

  • Pour votre pool de sauvegarde, utilisez les paramètres suivants pour créer 16 disques virtuels avec une résilience de type double parité et sept colonnes.

    Paramètre

    Valeur

    ResiliencySettingName

    Parity

    NumberOfDataCopies

    3

    Size

    7.53 TiB

    NumberOfColumns

    7

    IsEnclosureAware

    $true

Partitions

  • Une partition GPT par espace de stockage

    Permet de conserver une solution plus simple.

Volumes

  • Un volume formaté avec le système de fichiers NTFS par partition/espace de stockage

    ReFS n'est pas recommandé pour cette solution dans cette version de Windows Server.

  • Activer la déduplication des données sur les disques virtuels utilisés pour le stockage des sauvegardes

Volume partagé de cluster

  • Un volume partagé de cluster par volume (avec un volume et une partition par espace de stockage)

    Permet de distribuer la charge sur tous les nœuds du cluster de serveurs de fichiers. Ne créez pas de volume partagé de cluster dans l’espace de stockage de 4 Go utilisé pour gérer le quorum du cluster.

Chiffrement du lecteur BitLocker

  • Tester les performances de chiffrement du lecteur BitLocker avant de l'utiliser largement

    Vous pouvez utiliser le chiffrement du lecteur BitLocker pour chiffrer toutes les données stockées dans chaque volume partagé de cluster, pour améliorer la sécurité physique, mais cela peut avoir un impact considérable sur les performances de la solution.

Partages de fichiers disponibles en continu

  • Un partage de fichiers SMB constamment disponible par volume partagé de cluster/volume/partition/espace de stockage

    Simplifie la gestion (un partage par espace de stockage sous-jacent) et permet de distribuer la charge sur tous les nœuds du cluster de serveurs de fichiers.

  • Tester les performances de l'accès aux données chiffrées (chiffrement SMB 3) sur les partages de fichiers avant de déployer largement

    Vous pouvez utiliser le chiffrement SMB 3 pour aider à protéger les données sur les partages de fichiers qui nécessitent une protection contre les failles de sécurité physique, si une personne malveillante a accès au réseau du centre de données. Mais de cette façon vous annulez la plupart des avantages de performances liés à l'utilisation de cartes réseau RDMA.

Mises à jour

  • Utiliser Windows Server Update Services avec Virtual Machine Manager

    Créez trois à quatre groupes d'ordinateurs dans Windows Server Update Services (WSUS) pour les nœuds de serveur de fichiers, en ajoutant un ou deux nœuds à chaque groupe. Avec cette configuration, vous pouvez commencer par mettre à jour un seul serveur et surveiller ses fonctionnalités, et ensuite mettre à jour les autres serveurs un par un pour que la charge reste équilibrée sur les autres serveurs.

    Pour plus d’informations, consultez Gestion des mises à jour d’infrastructure dans VMM (ou Déployer WSUS (Windows Server Update Services) dans votre organisation si vous n’utilisez pas Virtual Machine Manager).

  • Utiliser la mise à jour adaptée aux clusters pour les mises à jour des microprogrammes UEFI

    Utilisez la mise à jour adaptée aux clusters pour mettre à jour tous les éléments qui ne peuvent pas être distribués via WSUS. Ce sera probablement le cas du BIOS (UEFI) pour les nœuds de cluster, ainsi que du microprogramme des cartes réseau, des adaptateurs HBA avec connexion SAS, des lecteurs et des boîtiers de stockage.

Data Protection Manager

  • Vous pouvez utiliser Data Protection Manager (DPM) pour fournir des sauvegardes du cluster de serveurs de fichiers qui assurent la cohérence des données en cas d'incident. Vous pouvez également utiliser DPM et la réplication Hyper-V pour la récupération d'urgence des ordinateurs virtuels dans le cluster de calcul.

Étape 2 : Concevoir un cluster de gestion

Dans cette étape, vous créez le cluster de gestion qui exécute tous les services d'infrastructure et de gestion pour les clusters de serveurs de fichiers et de calcul.

Notes

Cette solution suppose que vous vouliez utiliser la suite de produits System Center, qui offre des outils puissants pour simplifier la configuration, la gestion et le contrôle de cette solution. Toutefois, vous pouvez également effectuer toutes les tâches via Windows PowerShell et le Gestionnaire de serveur (bien que vous constaterez que Windows PowerShell est plus adapté à l'échelle de cette solution). Si vous choisissez de renoncer à utiliser System Center, vous n'aurez probablement pas besoin d'un cluster de gestion aussi puissant que celui qui est décrit ici et vous pourrez utiliser des serveurs ou clusters existants.

2.1. Concevoir la configuration matérielle d'un cluster de gestion

Voici les composants matériels que nous recommandons pour le cluster qui exécute tous les services d'infrastructure et de gestion pour les clusters de serveurs de fichiers et de calcul.

Composant

Recommandations

Cluster de gestion

  • Un cluster de basculement à 4 nœuds

    L'utilisation de quatre nœuds permet de tolérer un nœud de cluster défaillant dans le cluster de gestion. Utilisez six nœuds pour assurer la résilience en cas de défaillance de deux nœuds. Un cluster de gestion utilisant Virtual Machine Manager peut prend en charge jusqu'à 8 192 ordinateurs virtuels.

Nœuds du cluster

  • Deux processeurs huit cœurs

    Les ordinateurs virtuels de ce cluster effectuent un volume considérable de traitement et nécessitent un processeur un peu plus puissant que pour le cluster de serveurs de fichiers.

  • 128 Go de RAM

    L'exécution des ordinateurs virtuels de gestion requiert davantage de RAM que le cluster de serveurs de fichiers.

  • Deux disques durs configurés dans un disque RAID-1 (miroir) avec un contrôleur RAID de base

    Emplacement où Windows Server est installé sur chaque nœud. En option, vous pouvez utiliser un ou deux disques SSD. Les disques SSD sont plus onéreux, mais consomment moins d'électricité et offrent des délais de démarrage, de configuration et de récupération plus rapides ainsi qu'une fiabilité accrue. Vous pouvez utiliser un disque SSD unique pour réduire les coûts si vous acceptez de réinstaller Windows Server sur le nœud en cas de défaillance du disque SSD.

Cartes d'interface réseau

  • Une carte d'interface réseau 10 Gigabits Ethernet double port avec prise en charge RDMA

    Cette carte communique avec le cluster de gestion et le cluster de serveurs de fichiers pour accéder aux fichiers .vhdx utilisés par les ordinateurs virtuels de gestion. La carte requiert la prise en charge RDMA pour optimiser les performances et iWARP si vous souhaitez utiliser des routeurs entre les racks des clusters de serveurs de fichiers et de gestion, ce qui peut être utile si vous ajoutez des clusters supplémentaires de serveurs de fichiers à la solution. Cette carte utilise SMB 3 et SMB Direct pour augmenter la tolérance de panne, chaque port étant connecté à un sous-réseau distinct.

    Pour obtenir la liste des cartes d’interface réseau certifiées avec prise en charge RDMA, consultez le catalogue Windows Server.

  • Une carte d'interface réseau 10 Gigabits Ethernet double port sans prise en charge RDMA

    Cette carte traite le trafic de gestion entre tous les clusters. La carte requiert la prise en charge de la file d'attente d'ordinateurs virtuels, la file d'attente dynamique d'ordinateurs virtuels, le balisage 802.1Q VLAN et le déchargement GRE (NVGRE). La carte utilise l'association de cartes réseau pour constituer ses deux ports, chacun étant connecté à un sous-réseau distinct, à tolérance de panne.

    La carte ne peut pas utiliser l'accès RDMA, car il requiert un accès direct à la carte réseau et la carte doit communiquer avec les commutateurs virtuels Hyper-V (empêchant ainsi l'accès direct à la carte réseau). Elle utilise la technologie d'association des cartes réseau pour la tolérance de panne au lieu de SMB Direct, les protocoles autres que SMB peuvent donc utiliser les connexions réseau redondantes. Vous devez utiliser des règles de qualité de service (QoS) pour hiérarchiser le trafic sur cette connexion.

    Pour obtenir la liste des cartes d’interface réseau certifiées avec prise en charge NVGRE, consultez le catalogue Windows Server.

  • Une carte d'interface réseau 1 Gigabit Ethernet pour la gestion à distance

    Ce contrôleur de gestion de la carte de base (BMC) ILO (Integrated Lights-out) ou carte réseau intégrée se connecte à votre réseau de gestion.

2.2. Concevoir la configuration logicielle du cluster de gestion

La liste suivante décrit les principaux composants logiciels que nous recommandons pour le cluster de gestion :

  • Windows Server 2012 R2 Datacenter

  • Clustering de basculement

  • Mise à jour adaptée aux clusters

  • Hyper-V

La liste suivante décrit les principaux services que vous devez exécuter sur les ordinateurs virtuels du cluster de gestion :

  • Services de domaine Active Directory (AD DS), serveur DNS et serveur DHCP

  • Windows Server Update Services

  • Services de déploiement Windows

  • Microsoft SQL Server

  • System Center Virtual Machine Manager

  • Serveur de la bibliothèque System Center Virtual Machine Manager

  • System Center Operations Manager

  • System Center Data Protection Manager

  • Une console de gestion (Windows Server avec l'option d'installation complète)

  • Des ordinateurs virtuels supplémentaires sont requis selon les services que vous utilisez, comme Windows Azure Pack et System Center Configuration Manager.

Notes

Créez des commutateurs virtuels identiques sur tous les nœuds afin que chaque ordinateur virtuel puisse basculer vers n'importe quel nœud et conserver sa connexion au réseau.

Étape 3 : Concevoir un cluster de calcul

Dans cette étape, créez le cluster de calcul qui exécute les ordinateurs virtuels fournissant les services aux clients.

2.1. Concevoir la configuration matérielle d'un cluster de calcul

Voici les composants matériels que nous recommandons pour les clusters de calcul. Ces clusters hébergent des ordinateurs virtuels clients.

Composant

Recommandations

Clusters de calcul Hyper-V

  • Chaque cluster de calcul contient 32 nœuds et héberge jusqu'à 2 048 ordinateurs virtuels Hyper-V. Lorsque vous êtes prêt à ajouter de la capacité supplémentaire, vous pouvez ajouter jusqu'à trois clusters de calcul supplémentaires (avec les clusters de serveurs de fichiers associés, soit un total de 128 nœuds hébergeant 8 192 ordinateurs virtuels pour 512 clients (en supposant 8 ordinateurs virtuels par client).

    Pour plus d’informations, consultez Extensibilité d’Hyper-V dans Windows Server 2012 et Windows Server 2012 R2.

Nœuds du cluster

  • Deux processeurs huit cœurs

    Deux processeurs huit cœurs suffisent pour une combinaison générale de charges de travail, mais si vous envisagez d'exécuter un grand nombre de charges de travail de calcul sur vos ordinateurs virtuels clients, sélectionnez des processeurs plus performants.

  • 128 Go de RAM

    L'exécution d'un nombre élevé d'ordinateurs virtuels (probablement 64 par nœud pendant l'exécution de tous les nœuds du cluster) requiert davantage de RAM que le cluster de serveurs de fichiers. Utilisez plus de RAM si vous voulez fournir plus de 2 Go en moyenne par ordinateur virtuel.

  • Deux disques durs configurés dans un disque RAID-1 (miroir) avec un contrôleur RAID de base

    Emplacement où Windows Server est installé sur chaque nœud. En option, vous pouvez utiliser un ou deux disques SSD. Les disques SSD sont plus onéreux, mais consomment moins d'électricité et offrent des délais de démarrage, de configuration et de récupération plus rapides ainsi qu'une fiabilité accrue. Vous pouvez utiliser un disque SSD unique pour réduire les coûts si vous acceptez de réinstaller Windows Server sur le nœud en cas de défaillance du disque SSD.

Cartes d'interface réseau

  • Une carte d'interface réseau 10 Gigabits Ethernet double port avec prise en charge RDMA

    Cette carte communique avec le cluster de serveurs de fichiers pour accéder aux fichiers .vhdx utilisés par les ordinateurs virtuels. La carte requiert la prise en charge RDMA pour optimiser les performances et iWARP si vous souhaitez utiliser des routeurs entre les racks des clusters de serveurs de fichiers et de gestion, ce qui peut être utile si vous ajoutez des clusters supplémentaires de serveurs de fichiers à la solution. Cette carte utilise SMB 3 et SMB Direct pour augmenter la tolérance de panne, chaque port étant connecté à un sous-réseau distinct.

    Pour obtenir la liste des cartes d’interface réseau certifiées avec prise en charge RDMA, consultez le catalogue Windows Server.

  • Une carte d'interface réseau 10 Gigabits Ethernet double port sans prise en charge RDMA

    Cette carte traite le trafic de gestion et des clients. La carte requiert la prise en charge de la file d'attente d'ordinateurs virtuels, la file d'attente dynamique d'ordinateurs virtuels, le balisage 802.1Q VLAN et le déchargement GRE (NVGRE). La carte utilise l'association de cartes réseau pour constituer ses deux ports, chacun étant connecté à un sous-réseau distinct, à tolérance de panne.

    La carte ne peut pas utiliser l'accès RDMA, car il requiert un accès direct à la carte réseau et la carte doit communiquer avec les commutateurs virtuels Hyper-V (empêchant ainsi l'accès direct à la carte réseau). Elle utilise la technologie d'association des cartes réseau pour la tolérance de panne au lieu de SMB Direct, les protocoles autres que SMB peuvent donc utiliser les connexions réseau redondantes. Vous devez utiliser des règles de qualité de service (QoS) pour hiérarchiser le trafic sur cette connexion.

    Pour obtenir la liste des cartes d’interface réseau certifiées avec prise en charge NVGRE, consultez le catalogue Windows Server.

  • Une carte d'interface réseau 1 Gigabit Ethernet pour la gestion à distance

    Ce contrôleur de gestion de la carte de base (BMC) ILO (Integrated Lights-out) ou carte réseau intégrée se connecte à votre réseau de gestion et vous permet d'utiliser System Center Virtual Machine Manager pour configurer le nœud de cluster à partir d'un matériel nu. L'interface doit prendre en charge l'interface de gestion de plateforme intelligente (IPMI) ou l'architecture de gestion des systèmes du matériel de serveur (SMASH).

2.2. Concevoir la configuration logicielle du cluster de calcul

La liste suivante décrit les principaux composants logiciels que nous recommandons pour le cluster de calcul :

  • Windows Server 2012 R2 Datacenter

  • Clustering de basculement

  • Hyper-V

  • Data Center Bridging

  • Mise à jour adaptée aux clusters

Étapes suivantes

Une fois ces étapes de planification terminées, consultez Quelles sont les principales étapes à suivre pour implémenter cette solution ?.

Voir aussi

Historique des modifications

Date

Description

15 juillet 2015

Mise à jour des instructions concernant la conception de disques virtuels et ajout de liens vers le Guide de la conception de stockage défini par logiciel. Ce guide fournit des informations plus détaillées et plus récentes sur la conception de stockage.

18 juin 2014

Mise à jour des instructions concernant la quantité d'espace à réserver dans chaque pool pour la reconstruction des espaces de stockage et mise à jour de la taille des disques virtuels et d'autres chiffres associés

2 avril 2014

Suppression de liens du catalogue Windows vers les disques SAS et les adaptateurs de bus hôte SAS en raison de leur manque de clarté

22 janvier 2014

Publication préliminaire