Guide de considérations en matière de conception d'une structure de virtualisation
À qui ce guide s'adresse-t-il ? Aux professionnels de l'informatique travaillant dans des moyennes à grandes entreprises qui sont responsables de la conception d'une structure de virtualisation prenant en charge de nombreux ordinateurs virtuels. Dans la suite de ce document, ces personnes sont appelées administrateurs de structure. Les personnes qui administrent les ordinateurs virtuels hébergés sur la structure sont appelées administrateurs d'ordinateurs virtuels, mais elles ne constituent pas le public cible de ce document. Au sein de votre organisation, vous pouvez avoir ces deux rôles.
En quoi ce guide peut-il vous aider ? Vous pouvez utiliser ce guide pour comprendre comment concevoir une structure de virtualisation capable d'héberger de nombreux ordinateurs virtuels dans votre organisation. Dans ce document, l'ensemble formé par la collection de serveurs et d'hyperviseurs, et par le matériel de stockage et de mise en réseau utilisé pour héberger les ordinateurs virtuels dans une organisation, est appelé une structure de virtualisation. Le graphique suivant illustre un exemple de structure de virtualisation.
Figure 1 :Exemple de structure de virtualisation
Remarque : chacun des schémas de ce document existe dans un onglet distinct du document Guide des considérations en matière de conception d'une structure de virtualisation - Diagrammes que vous pouvez télécharger en cliquant sur chaque intitulé de figure.
Bien que toutes les structures de virtualisation contiennent des serveurs pour le stockage et l'hébergement d'ordinateurs virtuels, en plus des réseaux qui les connectent, dans chaque entreprise, la conception d'une structure de virtualisation sera probablement différente de l'exemple illustré dans la Figure 1 en raison d'exigences différentes.
Ce guide détaille une série d'étapes et de tâches que vous pouvez suivre pour vous aider à concevoir une structure de virtualisation qui répond aux exigences uniques de votre organisation. Au fil des étapes et des tâches, il présente les options qui sont à votre disposition e matière de technologies et de fonctionnalités pour répondre aux exigences de niveau fonctionnel et de qualité de service (comme la disponibilité, l'évolutivité, les performances, la facilité de gestion et la sécurité).
Même si ce document peut vous aider à concevoir une structure de virtualisation facile à gérer, il ne traite pas des considérations et des options de conception du point de vue de la gestion et de l'exploitation de la structure de virtualisation avec un produit tel que Microsoft System Center 2012 ou System Center 2012 R2. Pour plus d'informations, voir System Center 2012 dans la bibliothèque TechNet.
Ce guide vous aide à concevoir une structure de virtualisation avec Windows Server 2012 R2, Windows Server 2012 et du matériel sans préférence particulière. Certaines fonctionnalités décrites dans ce document sont propres à Windows Server 2012 R2 et sont évoquées tout au long de ce document.
Hypothèses : vous avez de l'expérience dans le déploiement d'Hyper-V, d'ordinateurs virtuels, de réseaux virtuels, de services de fichiers Windows Server et du clustering avec basculement, de même que dans le déploiement de serveurs physiques, d'équipements de stockage et d'équipements réseau.
Ressources supplémentaires
Avant de concevoir une structure de virtualisation, les informations des documents suivants pourront vous être utiles :
Architecture de référence de Microsoft Cloud Services Foundation – Modèle de référence
Architecture de référence de Microsoft Cloud Services Foundation – Principes, concepts et modèles
Ces deux documents présentent les concepts fondamentaux qui sont observés dans de multiples conceptions de structure de virtualisation et peuvent servir de base à toute conception de structure de virtualisation.
Commentaires : pour nous faire part de vos commentaires sur ce document, envoyez un e-mail à l'adresse virtua@microsoft.com.
Vue d'ensemble des considérations en matière de conception
La suite de ce document présente un ensemble d'étapes et de tâches que vous pouvez réaliser pour concevoir une structure de virtualisation répondant parfaitement à vos besoins. Ces étapes sont présentées dans un ordre précis. À mesure que vous progresserez, vous serez peut-être amené à revenir sur des décisions que vous aurez prises à des étapes antérieures en raison de conflits. Néanmoins, tout est fait pour vous alerter des conflits de conception potentiels tout au long de ce document.
Vous n'arriverez à la conception répondant le mieux à vos besoins qu'après être repassé sur les différentes étapes autant de fois que nécessaire pour intégrer l'ensemble des considérations présentées dans ce document.
Étape 1 : Déterminer les besoins en ressources des ordinateurs virtuels
Étape 2 : Planifier la configuration des ordinateurs virtuels
Étape 3 : Planifier les groupes hôtes de virtualisation de serveur
Étape 4 : Planifier les hôtes de virtualisation de serveur
Étape 5 : Planifier les concepts d'architecture de la structure de virtualisation
Étape 6 : Planifier les caractéristiques de capacité initiales
Étape 1 : Déterminer les besoins en ressources des ordinateurs virtuels
La première étape de conception d'une structure de virtualisation consiste à déterminer les besoins en ressources des ordinateurs virtuels qui seront hébergés par la structure. La structure doit inclure le matériel physique nécessaire pour répondre à ces besoins. Les besoins en ressources des ordinateurs virtuels sont dictés par les systèmes d'exploitation et les applications qui s'exécutent dans ces ordinateurs virtuels. Dans la suite de ce document, la combinaison du système d'exploitation et des applications qui s'exécutent dans un ordinateur virtuel est appelée une charge de travail. Les tâches de cette étape vous aident à définir les besoins en ressources de vos charges de travail.
Conseil : au lieu d'évaluer les besoins en ressources de vos charges de travail existantes, puis de concevoir une structure de virtualisation capable de les prendre en charge, vous pouvez décider de concevoir une structure de virtualisation capable de répondre aux besoins des charges de travail les plus courantes. Vous pourrez ensuite traiter les charges de travail ayant des besoins spécifiques.
Ce type de structures de virtualisation est par exemple proposé par les fournisseurs de cloud public, comme Microsoft Azure (Azure). Pour plus d'informations, voir Tailles de machines virtuelles et de services cloud pour Microsoft Azure.
Les fournisseurs de cloud public proposent généralement une sélection de configurations des ordinateurs virtuels qui répondent aux besoins de la plupart des charges de travail. Si vous décidez de suivre cette approche, vous pouvez passer directement à l'Étape 2 : Planifier la configuration des ordinateurs virtuels de ce document. Autres avantages de cette approche :
Lorsque vous décidez de migrer une partie de vos ordinateurs virtuels locaux vers un fournisseur de cloud public, si les types de configuration de vos ordinateurs virtuels sont similaires à ceux de votre fournisseur public, la migration des ordinateurs virtuels sera plus facile que si les types de configuration sont différents.
Vous pourrez plus facilement prévoir les besoins en capacité et mettre en place un système d'approvisionnement en libre-service pour votre structure de virtualisation. Cela signifie que les administrateurs d'ordinateurs virtuels au sein de l'organisation peuvent automatiquement auto-approvisionner de nouveaux ordinateurs virtuels sans l'intervention des administrateurs de la structure.
Tâche 1 : Déterminer les besoins en ressources des charges de travail
Chaque charge de travail a besoin des ressources suivantes. La première chose que vous souhaiterez faire est de répondre aux questions suivantes pour chacune de vos charges de travail.
Processeur : Quelle vitesse ou architecture de processeur (Intel ou AMD) ou quel nombre de processeurs est requis ?
Réseau : En gigabits par seconde (Gbits/s), quelle bande passante réseau est requise pour le trafic entrant et sortant ? Quelle latence du réseau maximale la charge de travail peut-elle tolérer pour fonctionner correctement ?
Stockage : De combien de gigaoctets (Go) de stockage les fichiers d'application et de système d'exploitation de la charge de travail ont-ils besoin ? De combien de gigaoctets la charge de travail a-t-elle besoin pour ses données ? De combien d'opérations d'entrées/sorties (E/S) par seconde dans son stockage la charge de travail a-t-elle besoin ?
Mémoire : En gigaoctets (Go), quelle est la quantité de mémoire requise par la charge de travail ? La charge de travail prend-elle en charge l'accès mémoire non uniforme ?
Outre ces besoins en ressources, il est important de trouver une réponse aux questions suivantes :
Les besoins en ressources correspondent-ils à des besoins minimaux ou à des besoins recommandés ?
Quels sont les besoins maximum et moyens pour chaque besoin matériel sur une base horaire, quotidienne, mensuelle ou annuelle ?
Quel est le nombre de minutes d'arrêt par mois acceptable pour la charge de travail et ses données ? Pour répondre à cette question, prenez en considération les éléments suivants :
La charge de travail s'exécute-t-elle sur un seul ordinateur virtuel ou s'exécute-t-elle sur une collection d'ordinateurs virtuels agissant comme un seul, par exemple une collection de serveurs réseau à charge équilibrée exécutant tous la même charge de travail ? Si vous utilisez une collection de serveurs, le temps d'arrêt exprimé doit clairement indiquer s'il s'applique à chaque serveur de la collection, à tous les serveurs de la collection ou au niveau de la collection.
Heures de travail et heures en dehors des heures de travail. Par exemple, si personne n'utilisera la charge de travail entre 21 h 00 et 06 h 00, mais qu'elle doit impérativement être disponible le plus possible entre 6 h 00 et 21 h 00, avec un temps d'arrêt acceptable par mois de dix minutes seulement, cette exigence doit être spécifiée.
Quelle est la perte de données acceptable en cas d'échec inattendu de l'infrastructure virtuelle ? Celle-ci est exprimée en minutes car les stratégies de réplication de l'infrastructure virtuelle reposent généralement sur le temps. Bien que l'exigence de zéro perte de données soit souvent exprimée, sachez que pour y parvenir, le coût est élevé et que cela s'accompagne souvent de performances réduites.
Les fichiers de la charge de travail et/ou leurs données doivent-ils être chiffrés sur disque et les données de la charge de travail doivent-elles être chiffrées entre les ordinateurs virtuels et leurs utilisateurs finaux ?
Les options suivantes sont disponibles pour déterminer ces besoins en ressources.
Option |
Avantages |
Inconvénients |
---|---|---|
Évaluer et consigner manuellement l'utilisation des ressources |
Possibilité de faire un rapport sur tout ce que vous choisissez |
Peut exiger un effort manuel important |
Utiliser la boîte à outils Microsoft Assessment and Planning Toolkit pour évaluer et consigner automatiquement l'utilisation des ressources |
|
Les rapports peuvent ou non fournir toutes les données dont vous avez besoin |
Remarque : si vous choisissez de déterminer manuellement vos besoins en ressources, vous pouvez télécharger le Guide des considérations en matière de conception d'une structure de virtualisation - Feuilles de calcul et entrez les informations dans la feuille de calcul Workload resource req. (Besoins en ressources de la charge de travail). Ce guide contient les feuilles de calcul référencées dans ce document.
Tâche 2 : Définir les caractéristiques des charges de travail
Vous pouvez définir autant de caractéristiques que vous le souhaitez pour les charges de travail de votre environnement. Les exemples suivants ont été choisis car chacun requiert une configuration différente des composants de la structure de virtualisation, qui seront abordés plus en détail dans les étapes ultérieures.
Sans état : Les charges de travail sans état n'écrivent aucune information unique sur leur disque dur local une fois qu'elles sont initialement approvisionnées et que des noms d'ordinateur et des adresses réseau uniques leur ont été attribués. Elles peuvent toutefois écrire des informations uniques dans un élément de stockage distinct, comme une base de données. Les charges de travail sans état sont idéalement exécutées sur une structure de virtualisation car une image « maître » peut être créée pour l'ordinateur virtuel. Cette image peut facilement être copiée et démarrée dans la structure de virtualisation pour ajouter des ressources à la charge de travail ou pour remplacer rapidement un ordinateur virtuel devenu indisponible suite à une défaillance d'un hôte de virtualisation. Un serveur web exécutant une application web frontale est un exemple de charge de travail sans état.
Avec état : Les charges de travail avec état écrivent des informations uniques sur leur disque dur local une fois qu'elles sont initialement approvisionnées et que des noms d'ordinateur et des adresses réseau uniques leur ont été attribués. Elles peuvent également écrire des informations uniques dans un élément de stockage distinct, comme une base de données. Les charges de travail avec état requièrent généralement des stratégies d'approvisionnement et de montée en puissance plus complexes que les charges de travail sans état. Les stratégies de haute disponibilité pour les charges de travail avec état peuvent exiger le partage d'état avec d'autres ordinateurs virtuels. Le moteur de base de données SQL Server est un exemple de charge de travail avec état.
Avec état partagé : Charges de travail avec état qui requièrent un état partagé avec d'autres ordinateurs virtuels. Ces charges de travail utilisent souvent le clustering avec basculement dans Windows Server pour obtenir une haute disponibilité, ce qui nécessite l'accès au stockage partagé. Microsoft System Center Virtual Machine Manager est un exemple de charge de travail avec état partagé.
Autre : Caractérise les charges de travail qui peuvent ne pas s'exécuter du tout, ou ne pas s'exécuter de façon optimale, sur une structure de virtualisation. Ces charges de travail présentent les exigences suivantes :
Accès à des périphériques physiques. Par exemple, une charge de travail de téléphonie qui communique avec une carte réseau téléphonique dans un hôte physique.
Besoins en ressources beaucoup plus importants que la plupart des autres charges de travail. Par exemple, une application en temps réel qui a besoin d'un temps de latence inférieur à une milliseconde entre les couches d'application.
Ces applications peuvent ou non s'exécuter sur votre structure de virtualisation ou elles peuvent avoir besoin de matériel ou d'une configuration très spécifique que n'ont pas la plupart de vos autres charges de travail.
Remarque : vous pouvez définir les caractéristiques de vos charges de travail dans la feuille de calcul Settings (Paramètres), puis sélectionner la caractéristique appropriée pour chaque charge de travail dans la feuille de calcul Workload resource req. (Besoins en ressources de la charge de travail).
Étape 2 : Planifier la configuration des ordinateurs virtuels
Dans cette étape, vous allez définir les types d'ordinateurs virtuels dont vous aurez besoin pour répondre aux besoins en ressources et aux caractéristiques des charges de travail que vous avez définies à l'Étape 1.
Tâche 1 : Définir la configuration de calcul
Dans cette tâche, vous allez déterminer la quantité de mémoire et de processeurs requise par chaque ordinateur virtuel.
Tâche 1a : Définir le type de génération des ordinateurs virtuels
Windows Server 2012 R2 a introduit les ordinateurs virtuels de 2e génération. Les ordinateurs virtuels de 2e génération prennent en charge des fonctionnalités matérielles et de virtualisation qui ne sont pas prises en charge par les ordinateurs virtuels de 1e génération. Il est important de prendre la bonne décision car une fois l'ordinateur virtuel créé, son type ne peut pas être modifié.
Un ordinateur de 2e génération offre les nouvelles fonctionnalités suivantes :
démarrage PXE avec une carte réseau standard ;
démarrage à partir d'un disque dur virtuel SCSI ;
démarrage à partir d'un DVD virtuel SCSI ;
démarrage sécurisé (activé par défaut) ;
prise en charge du microprogramme UEFI.
Les ordinateurs virtuels de 2e génération prennent en charge les systèmes d'exploitation invités suivants :
Windows Server 2012 R2
Windows Server 2012
Versions 64 bits de Windows 8.1
Versions 64 bits de Windows 8
Versions spécifiques de Linux. Pour obtenir la liste des distributions et des versions qui prennent en charge les ordinateurs virtuels de 2e génération, voir Ordinateurs virtuels Linux sur Hyper-V.
Le tableau suivant répertorie les avantages et les inconvénients des ordinateurs virtuels de 1e et de 2e génération.
Option |
Avantages |
Inconvénients |
---|---|---|
1e génération |
|
Aucun accès aux nouvelles fonctionnalités des ordinateurs virtuels |
2e génération |
|
|
Important : les ordinateurs virtuels de 2e génération Linux ne prennent pas en charge le démarrage sécurisé. Lorsque vous créez un ordinateur virtuel sur lequel vous voulez installer Linux, vous devez désactiver le démarrage sécurisé dans les paramètres de l'ordinateur virtuel.
Informations complémentaires :
Vue d'ensemble des ordinateurs virtuels de 2e génération
Tâche 1b : Définir la mémoire
Vous devez planifier la taille de la mémoire de vos ordinateurs virtuels comme vous le faites habituellement pour les applications serveur sur un ordinateur physique. Elle doit permettre de gérer la charge prévue aux heures normales et aux heures de pointe. Une mémoire insuffisante peut augmenter de manière significative les temps de réponse et l'utilisation du processeur ou des E/S.
Mémoire statique ou mémoire dynamique
La mémoire statique est la quantité de mémoire attribuée à l'ordinateur virtuel. Elle est toujours allouée au démarrage de l'ordinateur virtuel et ne change pas lors de son exécution. Toute la mémoire est attribuée à l'ordinateur virtuel et la mémoire qui n'est pas utilisée par l'ordinateur virtuel n'est pas disponible pour les autres ordinateurs virtuels. Si la mémoire disponible sur l'hôte est insuffisante pour être allouée à l'ordinateur virtuel lors de son démarrage, il ne démarrera pas.
La mémoire statique est utile pour les charges de travail gourmandes en mémoire et les charges de travail qui ont leurs propres systèmes de gestion de mémoire, telles que SQL Server. Ces types de charges de travail seront plus performantes avec la mémoire statique.
Remarque : il n'existe aucun paramètre pour activer la mémoire statique. La mémoire statique est activée lorsque le paramètre Mémoire dynamique n'est pas activé.
La mémoire dynamique vous permet de mieux utiliser la mémoire physique sur un système en équilibrant la mémoire physique totale entre plusieurs ordinateurs virtuels. Davantage de mémoire est allouée aux ordinateurs virtuels qui sont occupés, tandis que de la mémoire est retirée pour les ordinateurs virtuels moins utilisés. Cela permet d'obtenir des ratios de consolidation plus élevés, en particulier dans les environnements dynamiques comme les serveurs VDI (Virtual Desktop Infrastructure) ou web.
Avec la mémoire statique, si 10 Go de mémoire sont attribués à un ordinateur virtuel et qu'il n'en utilise que 3 Go, les 7 Go de mémoire restants ne peuvent pas être utilisés par d'autres ordinateurs virtuels. Lorsque la mémoire dynamique est activée sur un ordinateur virtuel, ce dernier utilise uniquement la quantité de mémoire dont il a besoin, mais sans aller en-deçà de la mémoire vive minimale qui est configurée. Cela permet de libérer de la mémoire supplémentaire pour les autres ordinateurs virtuels.
Le tableau suivant répertorie les avantages et inconvénients de la mémoire statique et de la mémoire dynamique.
Option |
Avantages |
Inconvénients |
---|---|---|
Mémoire statique |
|
|
Mémoire dynamique |
|
|
Les paramètres de configuration de la mémoire sont les suivants :
RAM de démarrage : Spécifie la quantité de mémoire requise pour démarrer l'ordinateur virtuel. La valeur doit être suffisamment élevée pour permettre le démarrage du système d'exploitation invité, mais aussi faible que possible pour permettre une utilisation optimale de la mémoire et des ratios de consolidation potentiellement plus élevés.
RAM minimale : Spécifie la quantité minimale de mémoire qui doit être allouée à l'ordinateur virtuel après son démarrage. Cette valeur peut être comprise entre 32 Mo et une valeur maximale égale à la valeur de la RAM de démarrage. Ce paramètre est disponible uniquement si la mémoire dynamique est activée.
RAM maximale : Spécifie la quantité maximale de mémoire que cet ordinateur virtuel est autorisé à utiliser. Cette valeur peut être comprise entre la valeur de la RAM de démarrage et 1 To. Toutefois, un ordinateur virtuel ne peut utiliser que la quantité de mémoire maximale prise en charge par le système d'exploitation invité. Par exemple, si vous attribuez 64 Go de mémoire à un ordinateur virtuel exécutant un système d'exploitation invité prenant en charge 32 Go de mémoire au maximum, l'ordinateur virtuel ne pourra pas utiliser plus de 32 Go de mémoire. Ce paramètre est disponible uniquement si la mémoire dynamique est activée.
Poids de la mémoire : Permet à Hyper-V de déterminer comment répartir la mémoire entre les ordinateurs virtuels si la mémoire physique disponible dans l'hôte n'est pas suffisante pour donner à chaque ordinateur virtuel la quantité de mémoire qu'il demande. Les ordinateurs virtuels avec un poids de mémoire supérieur sont prioritaires sur les ordinateurs virtuels avec des poids de mémoire inférieurs.
Remarques :
Les fonctionnalités Mémoire dynamique et NUMA virtuelle ne peuvent pas être utilisées en même temps. Un ordinateur virtuel sur lequel la mémoire dynamique est activée n'a qu'un seul nœud NUMA virtuel et aucune topologie NUMA n'est présentée à l'ordinateur virtuel quels que soient les paramètres de NUMA virtuelle.
Lors de l'installation ou de la mise à niveau du système d'exploitation d'un ordinateur virtuel, la quantité de mémoire disponible pour l'ordinateur virtuel pendant le processus d'installation ou de mise à niveau est la valeur spécifiée comme RAM de démarrage. Même si la mémoire dynamique a été configurée pour l'ordinateur virtuel, celui-ci n'utilise que la quantité de mémoire qui est configurée dans le paramètre RAM de démarrage. Assurez-vous que la valeur de RAM de démarrage correspond à la mémoire minimale requise par le système d'exploitation au cours des procédures d'installation ou de mise à niveau.
Le système d'exploitation invité exécuté sur l'ordinateur virtuel doit prendre en charge la mémoire dynamique.
Les applications de base de données complexes telles que SQL Server ou Exchange Server implémentent leurs propres gestionnaires de mémoire. Consultez la documentation de la charge de travail pour déterminer si elle est compatible avec la mémoire dynamique.
Informations complémentaires :
Vue d'ensemble de la mémoire dynamique Hyper-V
Tâche 1c : Définir le processeur
Les paramètres de configuration suivants doivent être déterminés pour configurer les ordinateurs virtuels :
Nombre de processeurs nécessaires pour chaque ordinateur virtuel. Ce nombre est souvent identique au nombre de processeurs requis par la charge de travail. Hyper-V prend en charge au maximum 64 processeurs virtuels par ordinateur virtuel.
Contrôle des ressources pour chaque ordinateur virtuel. Il est possible de définir des limites pour garantir qu'aucun ordinateur virtuel ne peut monopoliser les ressources de processeur de l'hôte de virtualisation.
Topologie NUMA. Pour les charges de travail NUMA hautes performances, vous pouvez spécifier le nombre maximal de processeurs, la quantité de mémoire autorisée sur un même nœud NUMA virtuel et le nombre maximal de nœuds autorisés sur un même socket de processeur. Pour plus d'informations, voir Vue d'ensemble de la topologie NUMA virtuelle Hyper-V.
Remarque : la topologie NUMA virtuelle et la mémoire dynamique ne peuvent pas être utilisées en même temps. Pour décider si vous allez utiliser la mémoire dynamique ou la topologie NUMA, répondez aux questions suivantes. Si la réponse aux deux questions est Oui, activez la topologie NUMA virtuelle et n'activez pas la mémoire dynamique.
La charge de travail exécutée sur l'ordinateur virtuel est-elle compatible NUMA ?
L'ordinateur virtuel consommera-t-il davantage de ressources, de processeurs ou de mémoire que ce qui est disponible sur un même nœud NUMA physique ?
Tâche 1d : Définir les systèmes d'exploitation pris en charge
Vous devez confirmer que le système d'exploitation requis par votre charge de travail est pris en charge comme un système d'exploitation invité. Considérez les points suivants :
Supported Windows Guest Operating Systems for Hyper-V in Windows Server 2012 R2 and Windows 8.1
Supported Windows Guest Operating Systems for Hyper-V in Windows Server 2012 and Windows 8
Pour Linux : pour plus d'information sur les distributions Linux prises en charge, voir Ordinateurs virtuels Linux sur Hyper-V.
Remarque : Hyper-V inclut un package logiciel pour les systèmes d'exploitation invités pris en charge qui améliore les performances et l'intégration entre l'ordinateur physique et l'ordinateur virtuel. Cette collection de services et de pilotes logiciels est appelée services d'intégration. Pour des performances optimales, vos ordinateurs virtuels doivent exécuter les services d'intégration les plus récents.
Licences
Vous devez vous assurer que la licence des systèmes d'exploitation invités est valide. Consultez la documentation du fournisseur pour connaître les conditions de licence spécifiques lorsque vous exécutez un environnement virtualisé.
Activation automatique d'ordinateur virtuel (AVMA, Automatic Virtual Machine Activation) est une fonctionnalité introduite dans Windows Server 2012 R2. AVMA lie l'activation de l'ordinateur virtuel au serveur de virtualisation sous licence et active l'ordinateur virtuel lorsqu'il démarre. Cela évite de devoir entrer les informations de licence et de devoir activer individuellement chaque ordinateur virtuel.
AVMA nécessite que l'hôte exécute Windows Server 2012 R2 Datacenter et le système d'exploitation invité de l'ordinateur virtuel doit être Windows Server 2012 R2 Datacenter, Windows Server 2012 R2 Standard ou Windows Server 2012 R2 Essentials.
Remarque : vous devez configurer AVMA sur chaque hôte déployé dans votre structure de virtualisation.
Informations complémentaires :
Activation automatique d'ordinateur virtuel
Tâche 1e : Définir la convention d'affectation de noms aux ordinateurs virtuels
Votre stratégie de noms d'ordinateurs existante peut indiquer où se trouve physiquement l'ordinateur ou le serveur. Les ordinateurs virtuels peuvent passer d'un hôte à un autre, voire changer de centre de données, la stratégie de noms existante peut donc ne plus être applicable. Une mise à jour de la convention d'affectation de noms existante pour indiquer que l'ordinateur s'exécute comme un ordinateur virtuel peut permettre de savoir où s'exécute actuellement l'ordinateur virtuel.
Tâche 2 : Définir la configuration du réseau
Chaque ordinateur virtuel recevra ou enverra différents types de trafic réseau. Chaque type de trafic réseau aura des exigences de performances, de disponibilité et de sécurité différentes.
Les ordinateurs virtuels de 1e génération peuvent comporter au maximum 12 cartes réseau (4 cartes réseau héritées et 8 cartes réseau virtuelles). Les ordinateurs virtuels de 2e génération ne prenant pas en charge les cartes réseau héritées, le nombre maximal de cartes pris en charge est de 8.
Tâche 2a : Déterminer les types de trafic réseau
Chaque ordinateur virtuel envoie et reçoit différents types de données :
Données d'application
Sauvegarde de données
Communications avec des ordinateurs clients, serveurs ou services
Communication intracluster, si la charge de travail fait partie d'un cluster de basculement d'ordinateur virtuel invité
Assistance
Stockage
Si des réseaux existants sont déjà dédiés à différents types de trafic réseau, vous pouvez choisir de les utiliser pour cette tâche. Si vous définissez de nouvelles conceptions de réseau pour prendre en charge votre structure de virtualisation, vous pouvez définir pour chaque ordinateur virtuel les types de trafic réseau qu'il prendra en charge.
Tâche 2b : Définir les options de performances du trafic réseau
Il existe pour chaque type de trafic réseau des exigences en matière de bande passante maximale et de latence minimale. Le tableau suivant présente les stratégies qui peuvent être utilisées pour répondre à différentes exigences de performances réseau.
Stratégie |
Avantages |
Inconvénients |
---|---|---|
Séparation des types de trafic sur différentes cartes réseau physiques |
Sépare le trafic afin qu'il ne soit pas partagé par d'autres types de trafic |
|
Gestion de la bande passante Hyper-V (QoS Hyper-V) |
|
|
SR-IOV |
|
|
|
|
|
Trames Jumbo |
|
|
Tâche 2c : Définir les options de disponibilité du trafic réseau
L'association de cartes réseau, également appelée équilibrage de charge et basculement (LBFO), permet à plusieurs cartes réseau d'être placées dans une équipe aux fins d'agrégation de la bande passante et de basculement de trafic. Cela maintient la connectivité en cas de défaillance d'un composant réseau. L'association de cartes réseau est généralement configurée sur l'hôte, et quand vous créez le commutateur virtuel, il est lié à l'association de cartes réseau.
Les commutateurs réseau qui sont déployés déterminent le mode d'association de cartes réseau. Les paramètres par défaut dans Windows Server 2012 R2 doivent être suffisants pour la majorité des déploiements.
Remarque : SR-IOV n'est pas compatible avec l'association de cartes réseau. Pour plus d'informations sur SR-IOV, voir Tâche 2b : Définir les options de performances du trafic réseau.
Informations complémentaires :
Vue d'ensemble de l'association de cartes réseau
Tâche 2d : Définir les options de sécurité du trafic réseau
Chaque type de trafic réseau peut avoir des exigences de sécurité différentes, comme c'est par exemple le cas pour les exigences liées à l'isolement et au chiffrement. Le tableau suivant explique les stratégies qui peuvent être utilisés pour répondre à des exigences de sécurité différentes.
Stratégie |
Avantages |
Inconvénients |
---|---|---|
Séparation sur des cartes réseau distinctes |
Permet de séparer le trafic de tout autre trafic réseau |
N'évolue pas bien. Plus vous avez de réseaux et plus vous avez de cartes réseau à installer et à gérer sur l'hôte. |
IPsec avec IPsec Déchargement de tâches |
|
|
Identification de réseau local virtuel (VLAN) |
|
|
|
|
|
|
Impact minimal sur les performances en cas d'activation |
|
|
Impact minimal sur les performances en cas d'activation |
Décision de conception - Vous pouvez télécharger le Guide des considérations en matière de conception d'une structure de virtualisation - Feuilles de calcul et changer les exemples de données dans la feuille de calcul Virtual machine configs. (Configurations des ordinateurs virtuels) pour consigner les décisions que vous prenez dans chacune des tâches de cette étape. Pour les décisions de conception suivantes, ce document fait référence à des feuilles de calcul spécifiques de ce même guide dans lesquelles vous pouvez entrer vos données.
Tâche 2e : Définir les cartes réseau virtuelles
Maintenant que vous avez déterminé les types de trafic requis par les ordinateurs virtuels et défini les stratégies de performances, de disponibilité et de sécurité pour le trafic, vous pouvez déterminer le nombre de cartes réseau virtuelles que nécessitera chaque ordinateur virtuel.
Une carte réseau virtuelle est connectée à un commutateur virtuel. Il existe trois types de commutateurs virtuels :
commutateur virtuel externe,
commutateur virtuel interne,
commutateur virtuel privé.
Le commutateur virtuel externe fournit à l'ordinateur virtuel un accès au réseau physique via l'adaptateur réseau associé au commutateur virtuel auquel il est connecté. Une carte réseau physique de l'hôte ne peut être associée qu'à un seul commutateur externe.
Les ordinateurs virtuels de 1e génération peuvent comporter au maximum 12 cartes réseau (4 cartes réseau héritées et 8 cartes réseau virtuelles). Les ordinateurs virtuels de 2e génération ne prenant pas en charge les cartes réseau héritées, le nombre maximal de cartes pris en charge est de 8. Un ID de réseau local virtuel peut être affecté à la carte réseau virtuelle, sauf si elle est configurée en mode trunk.
Si vous envisagez d'affecter le trafic de l'ordinateur virtuel à différents réseaux locaux virtuels, une carte réseau qui prend en charge les réseaux locaux virtuels doit être installée sur l'hôte et affectée au commutateur virtuel. Vous pouvez définir l'ID de réseau local virtuel de l'ordinateur virtuel dans les propriétés de l'ordinateur virtuel. L'ID de réseau local virtuel qui est défini dans le commutateur virtuel est l'ID de réseau local virtuel qui sera attribué à la carte réseau virtuelle affectée au système d'exploitation hôte.
Remarque : si un ordinateur virtuel nécessite l'accès à plus de réseaux qu'il n'y a de cartes disponibles, vous pouvez activer le mode VLAN trunk pour une carte réseau de l'ordinateur virtuel à l'aide de l'applet de commande Windows PowerShell Set-VMNetworkAdapterVlan.
Tâche 2f : Définir la stratégie d'adressage IP
Vous devez déterminer comment vous allez attribuer des adresses IP à vos ordinateurs virtuels. Si vous ne le faites pas, des conflits d'adresses IP risquent de se produire, ce qui peut avoir un impact négatif sur les autres ordinateurs virtuels et les périphériques physiques du réseau.
De plus, des serveurs DHCP non autorisés peuvent provoquer des dégâts sur votre infrastructure réseau, et ils peuvent être particulièrement difficiles à repérer lorsque le serveur s'exécute en tant qu'ordinateur virtuel. Vous pouvez protéger votre réseau contre les serveurs DHCP non autorisés exécutés sur un ordinateur virtuel en activant DHCPGuard dans les paramètres de vos ordinateurs virtuels. DHCPGuard assure la protection contre un ordinateur virtuel malveillant se présentant comme un serveur DHCP pour effectuer des attaques de l'intercepteur (« man-in-the-middle »).
Informations complémentaires :
Vue d'ensemble du protocole DHCP (Dynamic Host Configuration Protocol)
Vue d'ensemble de la gestion des adresses IP (IPAM)
Tâche 3 : Définir la configuration du stockage
Pour déterminer votre configuration de stockage, vous devez définir les types de données qui seront stockés par les ordinateurs virtuels et le type de stockage dont ils ont besoin.
Tâche 3a : Définir les types de données
Le tableau suivant répertorie les types de données qu'un ordinateur virtuel peut avoir besoin de stocker et où ce type de données est souvent stocké.
Type de données |
Emplacement de stockage pour le type de données |
---|---|
Fichiers du système d'exploitation |
Dans un fichier de disque dur virtuel qui est stocké par l'hôte de virtualisation. Les considérations en matière de stockage pour l'hôte de virtualisation sont abordées plus en détail à l'Étape 4 : Planifier les hôtes de virtualisation de serveur ci-dessous. |
Fichier d'échange Windows |
Généralement stocké au même emplacement que les fichiers du système d'exploitation. |
Fichiers de programme d'application |
Généralement stockés au même emplacement que les fichiers du système d'exploitation. |
Données de configuration d'application |
Généralement stockées au même emplacement que les fichiers du système d'exploitation. |
Données d'application |
Généralement stockées séparément des fichiers d'application et du système d'exploitation. Par exemple, si l'application est une application de base de données, les fichiers de base de données sont souvent stockés dans une solution de stockage réseau haute disponibilité et efficace qui est distincte de l'emplacement où sont stockés les fichiers du système d'exploitation ou les fichiers d'application. |
Volumes partagés en cluster (CSV) et témoin de disque (nécessaires pour le clustering d'ordinateurs virtuels invités) |
Souvent stockés séparément des fichiers d'application et du système d'exploitation.
|
Fichiers de vidage sur incident |
Généralement stockés au même emplacement que les fichiers du système d'exploitation. |
Tâche 3b : Définir les types de stockage
Le tableau suivant répertorie les types de stockage qui peuvent être utilisés pour les types de données définis à l'Étape 2, Tâche 2 ci-dessus.
Type de stockage |
Éléments à prendre en considération |
---|---|
Disque IDE virtuel |
Ordinateurs virtuels de 1e génération :
Les ordinateurs virtuels de 2e génération ne prennent pas en charge les périphériques IDE. |
SCSI virtuels |
|
Initiateur iSCSI dans l'ordinateur virtuel |
|
Fibre Channel virtuel |
|
SMB 3.0 |
Accédez aux fichiers stockés sur des partages SMB (Server Message Block) 3.0 à partir de l'ordinateur virtuel. |
Tâche 3c : Définir le format et le type de disque dur virtuel
Si vous utilisez le type de stockage sur disque dur virtuel, vous devez d'abord sélectionner le format de disque dur virtuel que vous allez utiliser dans les options répertoriées dans le tableau suivant.
Format de disque |
Avantages |
Inconvénients |
---|---|---|
VHD |
|
|
|
|
|
Utilisé pour le stockage partagé des clusters d'ordinateurs virtuels invités |
|
Ensuite, sélectionnez le type de disque que vous allez utiliser dans les options répertoriées dans le tableau suivant.
Type de disque |
Avantages |
Inconvénients |
---|---|---|
Fixe |
|
|
Dynamique |
Utilise l'espace disque uniquement en fonction des besoins, au lieu d'utiliser tout l'espace qui a été approvisionné |
|
De différenciation |
Peut utiliser moins d'espace disque si plusieurs disques de différenciation utilisent le même parent |
|
Considérez les éléments suivants lorsque vous sélectionnez le type et le format de fichier de disque dur virtuel :
Lorsque vous utilisez le format VHDX, un disque dynamique peut être utilisé car il offre des garanties de résilience, en plus des économies d'espace qui sont associées à l'allocation d'espace uniquement en cas de besoin.
Un disque fixe peut également être utilisé, quel que soit son format, lorsque le stockage sur le volume hôte n'est pas activement analysé. Cela garantit qu'un espace disque suffisant est présent lorsque le fichier de disque dur virtuel est développé au moment de l'exécution.
Les points de contrôle (anciennement appelés instantanés) d'un ordinateur virtuel créent un disque dur virtuel de différenciation pour stocker les écritures sur les disques. Le fait de n'avoir que quelques points de contrôle peut augmenter l'utilisation du processeur pour les E/S de stockage, sans que cela n'affecte considérablement les performances (sauf dans le cas des charges de travail serveur intensives avec nombreuses E/S).
Toutefois, une longue chaîne de points de contrôle peut affecter notablement les performances car la lecture à partir des disques durs virtuels peut nécessiter le contrôle des blocs demandés dans de nombreux disques de différenciation. Il est important que les chaînes de contrôle restent courtes afin de conserver de bonnes performances d'E/S sur disque.
Tâches 3d : Définir le type de stockage à utiliser pour chaque type de données
Après avoir défini les types de données et stockage qui seront stockés par les ordinateurs virtuels, vous pouvez déterminer quel type de stockage et quel format et type de disque virtuel vous utiliserez pour chaque type de données.
Tâche 4 : Définir la stratégie de disponibilité des ordinateurs virtuels
Même si les administrateurs de structure sont responsables de la disponibilité de la structure, les administrateurs d'ordinateurs virtuels sont en fin de compte responsables de la disponibilité de leurs ordinateurs virtuels. Par conséquent, l'administrateur des ordinateurs virtuels doit comprendre les fonctionnalités de la structure de manière à concevoir la stratégie de disponibilité appropriée pour les ordinateurs virtuels.
Les tableaux suivants analysent trois stratégies de disponibilité pour les ordinateurs virtuels exécutant des charges de travail ayant les caractéristiques définies à l'Étape 1, Tâche 2 ci-dessus. D'une manière générale, l'administrateur de structure informe les administrateurs d'ordinateurs virtuels à l'avance des activités d'interruption de service planifiées pour la structure afin que ces derniers puissent définir leur planning en conséquence. Les trois stratégies de disponibilité sont les suivantes :
Sans état
Avec état
Avec état partagé
Sans état
Option |
Éléments à prendre en considération |
---|---|
Migration dynamique des ordinateurs virtuels au niveau de l'hôte |
|
Clusters à charge équilibrée (avec Équilibrage de la charge réseau Windows) |
|
Clusters à charge équilibrée (avec un programme d'équilibrage de la charge matérielle) |
|
Avec état
Option |
Éléments à prendre en considération |
---|---|
|
Avec état partagé
En cas d'exécution de charges de travail adaptées aux clusters, vous pouvez fournir une couche supplémentaire de disponibilité en activant le clustering invité d'ordinateurs virtuels. Le clustering invité prend en charge la haute disponibilité pour les charges de travail de l'ordinateur virtuel. Le clustering invité offre une protection à la charge de travail qui est en cours d'exécution sur les ordinateurs virtuels, même en cas de défaillance de l'hôte sur lequel l'ordinateur virtuel s'exécute. Étant donné que la charge de travail était protégée par le clustering avec basculement, l'ordinateur virtuel sur l'autre nœud peut prendre automatiquement le contrôle.
Option |
Éléments à prendre en considération |
---|---|
|
Informations complémentaires :
Déployer un cluster invité avec un disque dur virtuel partagé
Utilisation du clustering invité pour une haute disponibilité
Récupération d'urgence
En cas de défaillance grave, en combien de temps pouvez-vous rendre opérationnelles les charges de travail demandées afin qu'elles puissent être utilisées par les clients ? Dans certains cas, le délai imparti peut être de seulement quelques minutes.
La réplication des données de vos centres de données principaux vers vos centres de récupération d'urgence doit garantir que les données les plus récentes peuvent être répliquées avec une perte de données acceptable en raison des délais. En exécutant les charges de travail dans des ordinateurs virtuels, vous pouvez répliquer les disques durs virtuels et les fichiers de configuration des ordinateurs virtuels de votre site principal vers un site de réplication.
Le tableau suivant compare les options de récupération d'urgence.
Option |
Éléments à prendre en considération |
---|---|
Réplica Hyper-V |
|
Sauvegarde |
|
Remarques :
Pour gérer la réplication de façon centralisée et l'automatiser quand System Center 2012 R2 - Virtual Machine Manager est exécuté, vous devez utiliser Microsoft Azure Site Recovery.
Pour répliquer des ordinateurs virtuels vers Azure, vous devez utiliser Microsoft Azure Site Recovery. La réplication d'un ordinateur virtuel vers Azure est actuellement en mode Aperçu.
Informations complémentaires :
Important :
Utilisez Hyper-V Replica Capacity Planner pour comprendre l'impact du réplica Hyper-V sur votre infrastructure réseau, sur l'utilisation du processeur sur le serveur principal, le serveur de réplica et le serveur de réplica étendu, sur l'utilisation de la mémoire sur le serveur principal et le serveur de réplica, ainsi que sur les opérations d'E/S par seconde du disque sur le serveur principal, le serveur de réplica et le serveur de réplica étendu qui reposent sur vos ordinateurs virtuels existants.
Votre charge de travail comprend peut-être une solution de récupération d'urgence intégrée, comme Groupes de disponibilité AlwaysOn dans SQL Server. Consultez la documentation de la charge de travail pour vérifier qu'elle prend en charge le réplica Hyper-V.
Informations complémentaires :
System Center Data Protection Manager
Tâche 5 : Définir les types d'ordinateurs virtuels
Pour prendre en charge les charges de travail de votre environnement, vous pouvez créer des ordinateurs virtuels avec des besoins en ressources uniques afin de répondre aux besoins de chaque charge de travail. Vous pouvez également adopter une approche similaire aux fournisseurs publics de services d'hébergement d'ordinateurs virtuels (également appelés Infrastructure-as-a-Service (IaaS)).
Voir Tailles de machines virtuelles et de services cloud pour Microsoft Azure pour obtenir une description des configurations de machines virtuelles proposées par les services d'infrastructure de Microsoft Azure. Au moment d'écrire ce lignes, le service prenait en charge 13 configurations de machines virtuelles ayant chacune des combinaisons d'espace différentes pour le processeur, la mémoire, le stockage et les opérations d'E/S.
Décision de conception - Les décisions que vous prenez dans chacune des tâches de cette étape peuvent être entrées dans les feuilles de calcul Virtual machine configs. (Configurations des ordinateurs virtuels).
Étape 3 : Planifier les groupes hôtes de virtualisation de serveur
Avant de définir les hôtes de serveur individuels, vous voudrez peut-être commencer par définir les groupes hôtes. Les groupes hôtes sont simplement une collection nommée de serveurs qui sont regroupés afin d'atteindre les objectifs communs qui sont décrits dans les tâches restantes de cette étape.
Tâche 1 : Définir des emplacements physiques
Vous allez probablement regrouper et gérer les ressources matérielles par emplacement physique. Vous voudrez donc commencer par définir les emplacements qui contiendront les ressources de structure de votre organisation.
Tâche 2 : Définir les types de groupes hôtes
Vous pouvez créer des groupes hôtes pour différentes raisons, comme pour héberger des charges de travail présentant des spécificités à différents niveaux :
caractéristiques de la charge de travail ;
besoins en ressources ;
exigences en matière de qualité de service.
L'image suivante illustre une organisation qui a créé cinq groupes hôtes dans deux emplacements.
Figure 2 :Exemple de groupes hôtes
L'organisation a créé les groupes hôtes pour les raisons indiquées dans le tableau suivant.
Groupe hôte |
Raisons de sa création |
---|---|
Charge de travail sans état et avec état |
|
Charges de travail avec état et sans état du service Comptabilité |
Bien que la configuration matérielle des serveurs de ce groupe hôte soit la même que celle des autres groupes hôtes de charge de travail avec état et sans état dans leur environnement, le service Comptabilité possède des applications qui ont des exigences de sécurité plus élevées que les autres services de l'organisation. Par conséquent, un groupe hôte dédié a été créé pour ce service afin qu'il puisse être sécurisé différemment des autres groupes hôtes dans la structure. |
Charges de travail avec état partagé |
Les charges de travail hébergées par ce groupe hôte nécessitent un stockage partagé car elles s'appuient sur le clustering avec basculement dans Windows Server pour maintenir leur disponibilité. Ces charges de travail sont hébergées par un groupe hôte dédié car la configuration de ces ordinateurs virtuels est différente de celle des autres ordinateurs virtuels de l'organisation. |
Charges de travail avec état et E/S élevées |
Tous les hôtes de ce groupe hôte sont connectés à des réseaux plus rapides que les hôtes des autres groupes hôtes. |
Bien que les groupes hôtes de l'organisation puissent couvrir différents emplacements, le choix a été fait de conserver tous les membres de chaque groupe hôte dans le même emplacement pour faciliter leur gestion. Comme vous pouvez le constater dans cet exemple, les groupes hôtes peuvent être créés pour diverses raisons, et ces raisons varient d'un organisation à l'autre. Plus vous créez de groupes hôtes dans votre organisation, plus l'environnement est complexe à gérer, ce qui alourdit le coût de l'hébergement d'ordinateurs virtuels.
Conseil : plus le matériel serveur est normalisé dans un groupe hôte, plus il sera facile de faire évoluer et de gérer ce groupe dans le temps. Si vous décidez de normaliser le matériel au sein d'un groupe hôte, vous pouvez ajouter les données de configuration normalisées à la feuille de calcul Host groups (Groupes hôtes) dans le Guide des considérations en matière de conception d'une structure de virtualisation - Feuilles de calcul. Pour plus d'informations sur les considérations en matière de matériel physique, voir Étape 4 : Planifier les hôtes de virtualisation de serveur.
Prenez en considération le fait qu'actuellement la plupart des fournisseurs de cloud public qui hébergent des ordinateurs virtuels :
hébergent uniquement des ordinateurs virtuels qui ne nécessitent pas d'état partagé ;
n'ont souvent qu'un jeu de mesures de qualité de service qu'ils fournissent à tous les clients ;
ne dédient pas de matériel spécifique à clients spécifiques.
Nous vous recommandons de commencer avec un type de groupe hôte contenant du matériel identique et de n'ajouter d'autres types de groupes hôtes que si les avantages d'une telle démarche compensent le coût.
Tâche 3 : Déterminer si les membres du groupe hôte doivent être mis en cluster
Par le passé, le clustering avec basculement dans Windows Server n'était utilisé que pour augmenter la disponibilité du serveur. Il s'est développé et offre aujourd'hui beaucoup plus de fonctionnalités. Appuyez-vous sur les informations du tableau ci-dessous pour vous aider à décider si vous voudrez mettre en cluster les membres de votre groupe hôte.
Option |
Avantages |
Inconvénients |
---|---|---|
Les membres du groupe hôte font partie d'un cluster de basculement |
|
|
Les membres du groupe hôte ne font pas partie d'un cluster de basculement |
|
Les ordinateurs virtuels s'exécutant sur un hôte qui échoue doivent être déplacés manuellement (ou avec un certain degré d'automatisation) vers un hôte survivant et redémarrés. |
Décision de conception - Les décisions que vous prenez dans chacune des tâches de cette étape peuvent être entrées dans la feuille de calcul Settings (Paramètres).
Étape 4 : Planifier les hôtes de virtualisation de serveur
Dans cette étape, vous allez définir les types d'hôtes dont vous aurez besoin pour héberger les ordinateurs virtuels que vous projetez d'exécuter sur votre structure de virtualisation. Vous voudrez limiter le nombre de configurations d'hôtes, dans certains cas à une seule configuration, pour réduire les coûts d'approvisionnement et de support. De plus, les coûts de déploiement peuvent grimper par l'achat du mauvais matériel.
Cloud Platform System
Gérant des services cloud et des datacenters comptant parmi les plus importants, Microsoft réunit son expérience et son savoir-faire dans un système convergé entièrement validé et intégré en usine. CPS combine un éventail de logiciels Microsoft, comprenant Windows Server 2012 R2, System Center 2012 R2 et Pack Windows Azure avec le matériel de serveur cloud, de stockage et de mise en réseau de Dell. En tant que composant évolutif de votre cloud, CPS accélère la valorisation et garantit l'uniformité de l'expérience du cloud.
CPS propose un environnement cloud mutualisé en libre-service pour les ordinateurs virtuels Windows et Linux et le service Platform-as-a-Service, et intègre des packs de déploiement optimisés pour des applications Microsoft comme SQL Server, SharePoint et Exchange. L'intégration en usine réduit les risques et la complexité tout en accélérant la durée de déploiement qui se compte désormais en jours (et plus en mois). Le processus de support simplifié et l'automatisation des tâches courantes sur l'infrastructure libèrent également des ressources IT qui peuvent ainsi se consacrer à l'innovation.
Pour plus d'informations, consultez le site Cloud Platform System.
Programme Fast Track
Au lieu de concevoir votre configuration matérielle (et logicielle), vous pouvez acheter des configurations matérielles préconfigurées auprès de nombreux partenaires via le programme Microsoft Private Cloud Fast Track.
Microsoft Private Cloud Fast Track est une démarche commune de Microsoft et de ses partenaires visant à proposer des solutions validées et préconfigurées qui réduisent la complexité et le risque liés à l'implémentation d'une structure de virtualisation et des outils pour la gérer.
Le programme Fast Track offre une flexibilité au niveau des solutions et un plus large choix aux clients parmi les technologies des fournisseurs de matériels. Il utilise les fonctions principales du système d'exploitation Windows Server, de la technologie Hyper-V et de Microsoft System Center pour proposer les piliers sur lesquels construire une infrastructure de cloud privé en tant qu'offre de service.
Informations complémentaires :
Site Microsoft Private Cloud - Fast Track
Tâche 1 : Définir la configuration de calcul
Dans cette tâche, vous aller déterminer la quantité de mémoire, le nombre de processeurs et la version de Windows Server qui sont nécessaires pour chaque hôte. Le nombre d'ordinateurs virtuels à exécuter sur un hôte sera déterminé par les composants matériels présentés dans cette section.
Remarque : pour garantir la prise en charge totale de votre solution, tout le matériel que vous achetez doit comporter le logo Certifié pour Windows Server pour la version de Windows Server que vous exécutez.
Le logo Certifié pour Windows Server indique qu'un système serveur atteint la barre technique la plus élevée de Microsoft en matière de sécurité, de fiabilité et de facilité de gestion. Associé à d'autres pilotes et périphériques certifiés, il peut prendre en charge les rôles, fonctionnalités et interfaces des charges de travail de cloud et d'entreprise, et des applications stratégiques.
Pour obtenir la liste à jour du matériel certifié pour Windows Server, voir le Catalogue Windows Server.
Tâche 1a : Définir le processeur
Hyper-V présente les processeurs logiques à chaque ordinateur virtuel sous la forme d'un ou de plusieurs processeurs virtuels. Vous pouvez obtenir une meilleure efficacité à l'exécution avec des processeurs prenant en charge les technologies SLAT (Second Level Address Translation), comme les processeurs EPT (Extended Page Tables) ou NPT (Nested Page Tables). Hyper-V dans Windows Server 2012 R2 prend en charge un maximum de 320 processeurs logiques.
Éléments à prendre en considération :
Les charges de travail qui ne sollicitent pas beaucoup le processeur doivent être configurées pour utiliser un processeur virtuel unique. Analysez l'utilisation du processeur hôte dans le temps pour vérifier que vous avez alloué des processeurs pour une efficacité maximale.
Les charges de travail qui sollicitent beaucoup le processeur doivent utiliser deux processeurs virtuels ou plus. Vous pouvez attribuer un maximum de 64 processeurs virtuels à un ordinateur virtuel. Le nombre de processeurs virtuels reconnus par l'ordinateur virtuel dépend du système d'exploitation invité. Par exemple, Windows Server 2008 Service Pack 2 ne reconnaît que quatre processeurs virtuels.
Informations complémentaires :
Réglage des performances pour les serveurs Hyper-V
Tâche 1b : Définir la mémoire
Le serveur physique a besoin d'une mémoire suffisante pour les ordinateurs virtuels hôtes et les ordinateurs virtuels en cours d'exécution. L'hôte a besoin de mémoire pour réaliser efficacement des E/S au nom des ordinateurs virtuels et pour effectuer des opérations telles qu'un point de contrôle d'ordinateur virtuel. Hyper-V vérifie que la mémoire disponible pour l'hôte est suffisante et il autorise l'affectation de la mémoire restante aux ordinateurs virtuels. Les ordinateurs virtuels doivent être dimensionnés en fonction des besoins de la charge prévue pour chaque ordinateur virtuel.
L'hyperviseur virtualise la mémoire physique de l'invité pour isoler les ordinateurs virtuels les uns des autres et fournir un espace mémoire contiguë de base zéro à chaque système d'exploitation invité, comme sur les systèmes non virtualisés. Pour garantir des performances optimales, utilisez du matériel SLAT de manière à réduire au maximum le coût de la virtualisation de mémoire sur les performances.
Dimensionnez la mémoire de l'ordinateur virtuel comme vous le faites habituellement pour les applications serveur sur un ordinateur physique. La quantité de mémoire allouée à l'ordinateur virtuel doit lui permettre de gérer raisonnablement la charge attendue aux heures normales et aux heures de pointe car une mémoire insuffisante peut augmenter considérablement les temps de réponse et l'utilisation du processeur ou des E/S.
La mémoire allouée à un ordinateur virtuel réduit la quantité de mémoire disponible pour les autres ordinateurs virtuels. Si la mémoire disponible sur l'hôte est insuffisante, l'ordinateur virtuel ne démarre pas.
La mémoire dynamique vous permet d'atteindre des chiffres de consolidation plus élevés avec une meilleure fiabilité pour les opérations de redémarrage. Cela peut contribuer à réduire les coûts, en particulier dans les environnements comportant de nombreux ordinateurs virtuels inactifs ou à faible charge, comme les environnements VDI regroupés. Les changements de configuration à l'exécution de la mémoire dynamique peuvent réduire le temps d'arrêt et permettre de mieux répondre aux changements des exigences.
Pour plus d'informations sur la mémoire dynamique, voir Tâche 1b : Définir la mémoire, qui explique comment déterminer la mémoire d'un ordinateur virtuel.
Informations complémentaires :
Vue d'ensemble de la mémoire dynamique Hyper-V
Vue d'ensemble de la topologie NUMA virtuelle Hyper-V
Tâche 1c : Définir l'édition du système d'exploitation Windows Server
Les ensembles de fonctionnalités proposés dans Windows Server Standard Edition et Windows Server Datacenter sont parfaitement identiques. Windows Server Datacenter fournit un nombre illimité d'ordinateurs virtuels. Avec Windows Server Standard, vous êtes limité à deux ordinateurs virtuels.
Dans Windows Server 2012 R2, la fonctionnalité d'activation automatique d'ordinateur virtuel a été ajoutée. Celle-ci vous permet d'installer des ordinateurs virtuels sur un serveur correctement activé sans avoir à gérer les clés de produit pour chaque ordinateur virtuel, même dans des environnements déconnectés.
Elle nécessite que les systèmes d'exploitation invités exécutent Windows Server 2012 R2 Datacenter, Windows Server 2012 R2 Standard ou Windows Server 2012 R2 Essentials. Le tableau suivant compare les éditions.
Édition |
Avantages |
Inconvénients |
---|---|---|
Standard |
|
Limité à deux ordinateurs virtuels |
Datacenter |
|
Plus coûteux |
Hyper-V peut être installé sur une option d'installation Server Core de Windows Server. Une installation Server Core permet de réduire l'espace nécessaire sur le disque, la surface d'attaque potentielle et en particulier les besoins en maintenance. Une installation Server Core est gérée à l'aide de la ligne de commande, de Windows PowerShell ou par administration à distance.
Il est important de consulter les termes du contrat de licence de tout logiciel que vous prévoyez d'utiliser.
Microsoft Hyper-V Server
Microsoft Hyper-V Server fournit une solution de virtualisation fiable et simple pour aider les organisations à améliorer leur utilisation du serveur et à réduire les coûts. Il s'agit d'un produit autonome qui contient uniquement l'hyperviseur Windows, un modèle de pilote Windows Server et les composants de virtualisation.
Hyper-V Server peut s'intégrer aux environnements informatiques existants des clients et tirer parti de la configuration, des processus de gestion et des outils de support existants. Il prend en charge la même liste de compatibilité matérielle que les éditions correspondantes de Windows Server et s'intègre parfaitement avec Microsoft System Center et les technologies Windows telles que Windows Update, Active Directory et le clustering avec basculement.
Hyper-V Server est disponible en téléchargement gratuit et son installation est automatique. Toutefois, une licence appropriée est nécessaire pour chacun des systèmes d'exploitation qui s'exécutent sur un ordinateur virtuel hébergé.
Informations complémentaires :
Activation automatique d'ordinateur virtuel
Gérer Hyper-V Server à distance
Tâche 2 : Définir la configuration du réseau
À l'Étape 2, Tâche 2 ci-dessus, nous avons abordé les considérations de conception relatives à la mise en réseau de l'ordinateur virtuel. Nous allons maintenant aborder ces même considérations pour la mise en réseau de l'hôte. Il existe plusieurs types de trafic réseau que vous devez prendre en compte et planifier lorsque vous déployez Hyper-V. Vous devez concevoir la configuration de votre réseau avec les objectifs suivants à l'esprit :
garantir la qualité de service du réseau ;
assurer la redondance du réseau ;
isoler le trafic dans des réseaux définis.
Tâche 2a : Définir les types de trafic réseau
Lorsque vous déployez un cluster Hyper-V, vous devez planifier différents types de trafic réseau. Le tableau suivant récapitule les types de trafic.
Type de trafic |
Description |
---|---|
Gestion |
|
Cluster et volumes partagés de cluster |
|
Migration en direct |
Utilisé pour la migration dynamique d'ordinateur virtuel et la migration dynamique « shared nothing » |
Stockage |
Utilisé pour le trafic SMB ou le trafic iSCSI |
Réplica |
Utilisé pour le trafic de réplication d'ordinateur virtuel via la fonctionnalité Réplica Hyper-V |
Trafic de l'ordinateur virtuel (client) |
Remarque : voir Étape 2 : Planifier la configuration des ordinateurs virtuels pour obtenir la liste des types de trafic des ordinateurs virtuels. |
Sauvegarde |
Utilisé pour sauvegarder les fichiers de disque dur virtuel |
Tâche 2b : Définir les options de performances du trafic réseau
Pour chaque type de trafic réseau, une bande passante minimale et maximale, ainsi qu'une latence minimale sont requises. Voici les stratégies qui peuvent être utilisées pour répondre à différentes exigences de performances réseau.
Qualité de service (QoS) basée sur la stratégie
Lorsque vous déployez un cluster Hyper-V, vous avez besoin au minimum de six modèles de trafic ou réseaux. La redondance réseau est nécessaire pour chaque réseau. Commencez avec environ 12 cartes réseau dans l'hôte. Il est possible d'installer plusieurs cartes réseau quadruple port, mais vous finirez par manquer d'emplacements dans votre hôte.
L'équipement de mise en réseau est de plus en plus rapide. Il n'y a pas si longtemps, les cartes réseau de 1 Go étaient le haut de gamme. Les cartes de 10 Go se généralisent sur les serveurs et le coût de prise en charge des infrastructures de 10 Go devient plus raisonnable.
L'installation de deux cartes réseau associées de 10 Go fournit davantage de bande passante que deux cartes 1 Go quadruple port, nécessite moins de ports commutés et simplifie le câblage. À mesure que vous convergez vos types de trafic réseau sur les cartes réseau associées de 10 Go, la QoS basée sur la stratégie vous permet de gérer le trafic réseau pour répondre correctement aux besoins de votre infrastructure de virtualisation.
La QoS basée sur la stratégie vous permet de spécifier le contrôle de bande passante réseau, en fonction du type d'application, des utilisateurs et des ordinateurs. Les stratégies de qualité de service vous permettent de répondre aux impératifs de service d'une charge de travail ou d'une application en mesurant la bande passante réseau, en détectant les changements de conditions réseau (par exemple, congestion ou disponibilité de la bande passante) et en hiérarchisant (ou en limitant) le trafic réseau.
En plus la bande passante maximale, les stratégies de QoS dans Windows Server 2012 R2 fournissent une nouvelle fonctionnalité de gestion de la bande passante : la bande passante minimale. Contrairement à la bande passante maximale, qui est un plafond de bande passante, la bande passante minimale est un seuil de bande passante qui affecte une certaine quantité de bande passante à un type de trafic donné. Vous pouvez implémenter simultanément des limites de bande passante minimale et maximale.
Avantages |
Inconvénients |
---|---|
|
|
Informations complémentaires :
Vue d'ensemble de la qualité de service (QoS)
Qualité de service (QoS) basée sur la stratégie
Data Center Bridging
Data Center Bridging (DCB) offre une attribution de bande passante reposant sur le matériel à un type spécifique de trafic et améliore la fiabilité du transport Ethernet avec l’utilisation d’un contrôle de flux fondé sur les priorités. DCB est recommandé si FCoE et iSCSI sont utilisés.
Avantages |
Inconvénients |
---|---|
|
|
Informations complémentaires :
Vue d'ensemble de Data Center Bridging (DCB)
SMB Direct
SMB Direct (SMB sur RDMA) est un protocole de stockage dans Windows Server 2012 R2. Il permet les transferts directs de données de mémoire à mémoire entre le serveur et le système de stockage. Il nécessite une consommation minime du processeur et utilise des cartes réseau standard prenant en charge RDMA. Ainsi, les réponses aux demandes du réseau sont extrêmement rapides et du coup, les temps de réponse pour le stockage de fichiers à distance et pour le stockage par bloc en attachement direct sont les mêmes.
Avantages |
Inconvénients |
---|---|
|
|
RSC (Receive Segment Coalescing)
RSC (Receive Segment Coalescing) réduit l’utilisation du processeur pour le traitement réseau entrant en déchargeant des tâches de l’unité centrale vers une carte réseau compatible RSC.
Avantages |
Inconvénients |
---|---|
|
|
Partage du trafic entrant
Partage du trafic entrant (RSS, Receive Side Scaling) permet aux cartes réseau de distribuer la charge de traitement réseau en mode noyau sur plusieurs cœurs de processeurs dans des ordinateurs multicœurs. La distribution de ce traitement permet la gestion de charges de trafic réseau plus élevées qu’un simple cœur ne pourrait assumer. RSS parvient à ce résultat en répartissant la charge de traitement réseau entre plusieurs processeurs et en équilibrant de manière active la charge du trafic terminé par TCP (Transmission Control Protocol).
Avantages |
Inconvénients |
---|---|
|
|
SR-IOV
Hyper-V prend en charge les périphériques réseau compatibles SR-IOV et permet l'affectation directe d'une fonction virtuelle SR-IOV d'une carte réseau physique à un ordinateur virtuel. Cela augmente le débit du réseau, réduit la latence du réseau et réduit le temps processeur hôte nécessaire pour traiter le trafic réseau.
Pour plus d'informations sur SR-IOV, voir Tâche 2b : Définir les options de performances du trafic réseau ci-dessous.
Tâche 2c : Définir la stratégie de haute disponibilité et d'agrégation de bande passante du trafic réseau
L'association de cartes réseau, également appelée fonctionnalité d'équilibrage de charge et de basculement, permet de regrouper plusieurs cartes réseau pour les besoins de basculement du trafic et d'agrégation de bande passante. Cela permet de maintenir la connectivité en cas de défaillance d’un composant réseau.
Cette fonctionnalité était disponible chez les fournisseurs de cartes réseau. Introduite dans Windows Server 2012, l'association de cartes réseau est incluse en tant que fonctionnalité dans le système d'exploitation Windows Server.
L'association de cartes réseau est compatible avec toutes les fonctionnalités réseau de Windows Server 2012 R2 à trois exceptions près :
SR-IOV
RDMA
Authentification 802.1X
Du point de vue de l'évolutivité, dans Windows Server 2012 R2, 1 carte réseau minimum et 32 cartes maximum peuvent être ajoutées à une association. Un nombre illimité d'associations peuvent être créées sur un hôte unique.
Informations complémentaires :
Vue d'ensemble de l'association de cartes réseau
Microsoft Virtual Academy : Association de cartes réseau dans Windows Server 2012
Applets de commande d'association de cartes réseau (NetLBFO) dans Windows PowerShell
Déploiement et gestion de l'association de cartes réseau (LBFO) dans Windows Server 2012 R2
Centre de données convergé avec stockage des serveurs de fichiers
Tâche 2d : Définir la stratégie d'isolation et de sécurité du trafic réseau
Chaque type de trafic réseau peut avoir des exigences de sécurité différentes pour des fonctions comme l'isolation et le chiffrement. Le tableau suivant répertorie les stratégies qui peuvent être utilisées pour répondre à différentes exigences de sécurité.
Stratégie |
Avantages |
Inconvénients |
---|---|---|
Chiffrement (IPsec) |
Le trafic est sécurisé tout au long de sa transmission |
|
Réseaux physiques distincts |
Le réseau est physiquement séparé |
|
Réseau local virtuel (VLAN) |
|
|
Tâche 2e : Définir les cartes réseau virtuelles
Maintenant que vous avez déterminé les types de trafic requis par les hôtes serveur de virtualisation et défini les stratégies de performances, disponibilité et sécurité pour le trafic, vous pouvez déterminer le nombre de cartes réseau physiques qui sont nécessaires pour chaque hôte et les types de trafic réseau qui sera transmis sur chaque carte.
Tâche 2f : Définir les commutateurs virtuels
Pour connecter un ordinateur virtuel à un réseau, vous devez connecter la carte réseau à un commutateur virtuel Hyper-V.
Il existe trois types de commutateurs virtuels qui peuvent être créés dans Hyper-V :
Commutateur virtuel externe
Utilisez un commutateur virtuel externe lorsque vous souhaitez fournir aux ordinateurs virtuels un accès à un réseau physique pour communiquer avec les clients et serveurs externes. Ce type de commutateur virtuel permet également à des ordinateurs virtuels situés sur le même hôte de communiquer entre eux. Ce type de réseau peut également être utilisé par le système d'exploitation hôte, en fonction de la configuration de la mise en réseau.
Important : une carte réseau physique ne peut être liée qu'à un seul commutateur virtuel à la fois.
Commutateur virtuel interne
Utilisez un commutateur virtuel externe lorsque vous souhaitez autoriser la communication entre les ordinateurs virtuels situés sur le même hôte et entre les ordinateurs virtuels et le système d'exploitation hôte. Ce type de commutateur virtuel est généralement utilisé pour créer un environnement de test dans lequel vous devez vous connecter aux ordinateurs virtuels à partir du système d'exploitation hôte. Un commutateur virtuel interne n'est pas lié à une carte réseau physique. Par conséquent, un réseau virtuel interne est isolé du trafic réseau externe.
Commutateur virtuel privé
Utilisez un commutateur virtuel privé lorsque vous souhaitez autoriser la communication uniquement entre les ordinateurs virtuels situés sur le même hôte. Un commutateur virtuel interne n'est pas lié à une carte réseau physique. Un commutateur virtuel privé est isolé de l'ensemble du trafic réseau externe sur le serveur de virtualisation et de tout trafic réseau entre le système d'exploitation hôte et le réseau externe. Ce type de réseau est utile lorsque vous avez besoin de créer un environnement réseau isolé, comme un domaine de test isolé.
Remarque : les commutateurs virtuels privés et internes ne bénéficient pas des fonctionnalités d'accélération matérielle qui sont disponibles pour un ordinateur virtuel connecté à un commutateur virtuel externe
Décision de conception - Les décisions que vous prenez dans chacune des tâches de cette étape peuvent être entrées dans la feuille de calcul Virtualization hosts (Hôtes de virtualisation).
Conseil : les commutateurs virtuels sur différents hôtes qui se connectent au même réseau doivent porter le même nom. Cela évite toute confusion sur le commutateur virtuel auquel un ordinateur doit se connecter et simplifie le déplacement d'un ordinateur virtuel d'un hôte vers un autre. L'applet de commande Windows PowerShell Move-VM échoue si le même nom de commutateur virtuel n'existe pas sur l'hôte de destination.
Tâche 3 : Définir la configuration du stockage
En plus d'avoir accès au stockage nécessaire pour le système d'exploitation hôte, chaque hôte doit avoir accès au stockage dans lequel se trouvent les fichiers de configuration des ordinateurs virtuels et les disques durs virtuels. Cette tâche concerne uniquement le stockage de l'ordinateur virtuel.
Tâche 3a : Définir les types de données
Voici les exemples de types de données dont vous devez tenir compte pour déterminer vos besoins de stockage :
Type de données |
Emplacement de stockage du type de données |
---|---|
Fichiers du système d'exploitation hôte |
En général, sur un disque dur local |
Fichier d'échange hôte et vidages sur incident dans Windows |
En général, sur un disque dur local |
État partagé du cluster de basculement |
Stockage réseau partagé ou volume partagé de cluster |
Fichiers de disque dur virtuel et fichier de configuration d'ordinateur virtuel |
En général, sur un stockage réseau partagé ou un volume partagé de cluster |
La suite de cette étape est axée sur le stockage nécessaire pour les ordinateurs virtuels.
Tâche 3b : Options de stockage
Les options suivantes sont disponibles pour le stockage des fichiers de configuration des ordinateurs virtuels et les disques durs virtuels.
Option 1 : Stockage en attachement direct
Le stockage en attachement direct fait référence à un système de stockage informatique qui est directement attaché à votre serveur, au lieu d'être directement attaché à un réseau. Le stockage en attachement direct n'est pas limité au stockage interne. Il peut également utiliser un boîtier externe qui contient des lecteurs de disques durs, notamment les boîtiers JBOD (just-a-bunch-of-disks) et les boîtiers qui sont connectés via SAS ou un autre contrôleur de disque.
Avantages |
Inconvénients |
---|---|
|
|
Option 2 : Stockage NAS
Les dispositifs de stockage NAS connectent le stockage à un réseau où ils sont accessibles via les partages de fichiers. Contrairement au stockage en attachement direct, ils ne sont pas directement attachés à l'ordinateur.
Les dispositifs de stockage NAS prennent en charge les connexions Ethernet et permettent généralement à un administrateur de gérer l'espace disque, de définir les quotas de disques, d'assurer la sécurité et d'utiliser les technologies de point de contrôle. Les dispositifs de stockage NAS prennent en charge plusieurs protocoles parmi lesquels le protocole NFS (Network File System), le protocole CIFS (Common Internet File Systems) et le protocole SMB (Server Message Block).
Avantages |
Inconvénients |
---|---|
|
|
Option 3 : Réseau de zone de stockage
Un réseau de zone stockage (SAN) est un réseau dédié qui vous permet de partager un stockage. Un réseau SAN est constitué d'un dispositif de stockage, de l'infrastructure réseau d'interconnexion (commutateurs, adaptateurs de bus hôte et câblage) et des serveurs qui sont connectés à ce réseau. Les périphériques SAN fournissent un accès continu et rapide à de grandes quantités de données. Le mécanisme de communication et de transfert de données pour un déploiement donné est généralement appelé une structure de stockage.
Un réseau SAN utilise un réseau distinct et il n'est généralement pas accessible par d'autres périphériques sur le réseau local. Un réseau SAN peut être géré à l'aide du protocole SMI-S (Storage Management Initiative Specification), SNMP (Simple Network Management Protocol) ou d'un protocole de gestion propriétaire.
Un réseau SAN ne propose pas l'abstraction de fichier, mais uniquement les opérations de niveau bloc. Les protocoles SAN les plus courants utilisés sont iSCSI, Fibre Channel et Fibre Channel on Ethernet (FCoE). Un protocole SMI-S ou un protocole de gestion propriétaire peut fournir des fonctionnalités supplémentaires, telles que la segmentation de disque, le mappage de disque, le masquage LUN et la gestion des erreurs.
Avantages |
Inconvénients |
---|---|
|
|
Option 4 : Partages de fichiers SMB 3.0
Hyper-V peut stocker des fichiers d'ordinateur virtuel, comme les fichiers de configuration, les fichiers de disque dur virtuel et les points de contrôle, dans des partages de fichiers qui utilisent le protocole Server Message Block (SMB) 3.0. Les partages de fichiers seront généralement placés sur un serveur de fichiers avec montée en puissance parallèle pour assurer la redondance. Lorsque vous exécutez un serveur de fichiers avec montée en puissance parallèle, si un nœud est inactif, les partages de fichiers sont toujours disponibles à partir des autres nœuds du serveur.
Avantages |
Inconvénients |
---|---|
|
|
SMB Direct
SMB Direct fonctionne dans le cadre des partages de fichiers SMB. SMB Direct nécessite des cartes réseau et des commutateurs qui prennent en charge RDMA pour fournir un accès au stockage à vitesse maximale et faible latence. SMB Direct permet aux serveurs de fichiers à distance de passer pour un stockage local et un stockage en attachement direct. Outre les avantages de SMB, SMB Direct offre les avantages et inconvénients suivants.
Avantages |
Inconvénients |
---|---|
|
|
Informations complémentaires :
Fournir un stockage économique pour les charges de travail Hyper-V à l'aide de Windows Server
Centre de données convergé avec stockage des serveurs de fichiers
Tâche 3c : Définir les types d'architecture de lecteur physique
Le type d'architecture de lecteur physique que vous sélectionnez pour votre stockage aura un impact sur les performances de votre solution de stockage. Pour plus d'informations sur les types de disques, voir la Section 7.1 du document Architecture de la gamme de produits Infrastructure en tant que service.
Tâches 3d : Définir le type de mise en réseau de stockage
Les types de contrôleur de stockage ou de contrôleur de mise en réseau de stockage que vous utilisez sont déterminés par l'option de stockage que vous sélectionnez pour chaque groupe hôte. Pour plus d'informations, voir Tâche 3b : Options de stockage.
Tâche 3e : Déterminer le type de stockage à utiliser pour chaque type de données
Maintenant que vous avez déterminé vos types de données, vous pouvez déterminer quelle option de stockage, contrôleur de stockage, contrôleur de mise en réseau de stockage et architectures de disques physiques répondent le mieux à vos besoins.
Décision de conception - Les décisions que vous prenez dans cette tâche peuvent être entrées dans la feuille de calcul Virtualization hosts (Hôtes de virtualisation).
Informations complémentaires :
Poster et autres références sur l'architecture du composant Hyper-V de Windows Server 2012
Vue d'ensemble des technologies de stockage
Tâche 4 : Définir les unités d'échelle de l'hôte de virtualisation de serveur
L'achat de serveurs individuels suppose l'approvisionnement, l'installation et la configuration de chacun des serveurs. Les unités d'échelle vous permettent d'acheter des collections de serveurs (dont le matériel est généralement identique). Ils sont préconfigurés, ce qui vous permet d'augmenter la capacité du centre de données en ajoutant des unités d'échelle, plutôt qu'en ajoutant des serveurs individuels.
L'image ci-dessous illustre une unité d'échelle qui pourrait avoir été achetée préconfigurée auprès de bon nombre de fournisseurs de matériel. Elle comprend un rack, un onduleur, une paire de commutateurs réseau redondants pour les serveurs contenus dans le rack et dix serveurs.
Figure 4 :Exemple d'unité d'échelle d'hôte serveur de virtualisation
L'unité d'échelle est préconfigurée et précâblée à l'onduleur et aux commutateurs réseau. L'unité doit simplement être ajoutée à un centre de données, branché sur l'alimentation électrique et connecté au réseau et au stockage. Elle est ensuite prête à être utilisée. Si les composants individuels n'ont pas été achetés en tant qu'unité d'échelle, l'acheteur devra monter en rack et câbler tous les composants.
Décision de conception - Si vous décidez d'utiliser des unités d'échelle d'hôte de virtualisation de serveur, vous pouvez définir le matériel de vos unités d'échelle d'hôte de virtualisation dans la feuille de calcul Host scale units (Unités d'échelle hôte).
Conseil : vous pouvez acheter des unités d'échelle préconfigurées auprès de nombreux partenaires Microsoft via le programme Microsoft Private Cloud Fast Track.
Tâche 5 : Définir la stratégie de disponibilité des hôtes de virtualisation de serveur.
Les hôtes serveur de virtualisation peuvent devenir indisponibles pour des raisons planifiées (comme la maintenance) ou des raisons non planifiées. Voici quelques stratégies qui peuvent être utilisées dans les deux cas.
Planifié
Vous pouvez utiliser la migration dynamique pour déplacer les ordinateurs virtuels d'un hôte vers un autre hôte. Cela ne nécessite aucune interruption de service pour les ordinateurs virtuels.
Non planifié
Ce scénario dépend des types de caractéristiques de la charge de travail hébergés par l'hôte.
Pour les charges de travail avec état partagés, utilisez le clustering avec basculement dans les ordinateurs virtuels.
Pour les charges de travail avec état, lancez l'exécution en tant qu'ordinateur virtuel haute disponibilité sur un cluster Hyper-V.
Pour les charges de travail sans état, démarrez de nouvelles instances manuellement ou via des moyens automatisés.
Si vous utilisez le clustering avec basculement dans Windows Server avec Hyper-V, envisagez d'utiliser les fonctionnalités répertoriées dans le tableau suivant. Pour plus d'informations sur chaque fonctionnalité, cliquez sur le lien hypertexte.
Fonctionnalité |
Éléments à prendre en considération |
---|---|
Analysez un ordinateur virtuel pour les défaillances de mise en réseau et de stockage qui ne sont pas contrôlées par le service de clustering avec basculement. |
|
|
|
Anti-affinité des ordinateurs virtuels |
Définissez l'anti-affinité pour les ordinateurs virtuels que vous ne voulez pas exécuter sur le même nœud dans un cluster Hyper-V. Il peut s'agir d'ordinateurs virtuels qui fournissent des services redondants ou font partie du cluster d'ordinateur virtuel invité. Remarque : les paramètres anti-d'affinité sont configurés avec Windows PowerShell. |
|
|
|
|
Préemption des ordinateurs virtuels en fonction de la priorité |
Une autre raison pour laquelle définir la priorité des ordinateurs virtuels est que le service de cluster peut mettre hors connexion un ordinateur virtuel dont le niveau de priorité est plus bas lorsqu'un ordinateur virtuel de haute priorité n'a pas la mémoire et autres ressources nécessaires pour démarrer.
|
Remarque : les clusters Hyper-V peuvent avoir au maximum 64 nœuds et 8 000 ordinateurs virtuels.
Étape 5 : Planifier les concepts d'architecture de la structure de virtualisation
Cette étape prévoit la définition des concepts logiques sur lesquels s'alignera l'architecture de la structure.
Tâche 1 : Définir des domaines de maintenance
Les domaines de maintenance sont des collections logiques de serveurs qui sont traités ensemble. La maintenance peut inclure les mises à niveau matérielles ou logicielles, ou encore les modifications de configuration. Les domaines de maintenance englobent généralement les groupes hôtes de chaque type ou dans chaque emplacement, même si cela n'est pas obligatoire. L'objectif est de prévenir tout impact négatif de la maintenance du serveur sur les charges de travail des consommateurs.
Remarque : ce concept s'applique au réseau physique et aux composants de stockage.
Tâche 2 : Définir des domaines d'erreur physique
Les groupes d'hôtes serveur de virtualisation échouent souvent ensemble suite à l'échec d'un composant de l'infrastructure partagée, comme un commutateur réseau ou un onduleur (UPS). Les domaines d'erreur physique permettent de prendre en charge la résilience dans la structure de virtualisation. Il est important de comprendre l'impact d'un domaine d'erreur sur chacun des groupes hôtes que vous avez définis pour votre structure.
Remarque : ce concept s'applique au réseau physique et aux composants de stockage.
Prenons l'exemple de l'image ci-dessous dans lequel les domaines de maintenance et d'erreur physique se superposent sur une collection de groupes hôtes au sein d'un centre de données.
Figure 5 :Exemple de définition de domaine de maintenance et de domaine d'erreur physique
Dans cet exemple, chaque rack de serveurs est défini comme un domaine d'erreur physique distinct numéroté. Cela du fait que chaque rack contient un commutateur réseau en haut et un émulateur en bas. Tous les serveurs du rack s'appuient sur ces deux composants, et si l'un ou l'autre échoue, tous les serveurs du rack échouent également.
Étant donné que tous les serveurs d'un rack sont également membres de groupes hôtes uniques, cette conception signifie qu'en cas de défaillance d'un des domaines d'erreur physique aucune mesure d'atténuation n'est possible. Pour atténuer les problèmes, vous pouvez ajouter les domaines d'erreur physique de chaque type de groupe hôte. Dans les environnements plus petits, vous pourriez potentiellement ajouter un commutateur et des alimentations redondants dans chaque rack ou utiliser le clustering avec basculement pour les hôtes serveur de virtualisation dans les domaines d'erreur physique.
Dans la Figure 5, chacune zone délimitée par une ligne pointillée de couleur définit un domaine de maintenance (étiquetés DM 1 à 5). Notez comment chacun des serveurs du cluster à charge équilibrée d'ordinateurs virtuels est hébergé sur un hôte de virtualisation de serveur qui se trouve dans un domaine de maintenance distinct et un domaine d'erreur physique distinct.
Cela permet à l'administrateur de structure d'arrêter tous les hôtes serveur de virtualisation au sein d'un domaine de maintenance sans que cela ait un impact majeur sur les applications qui ont plusieurs serveurs répartis sur plusieurs domaines de maintenance. Cela signifie également que l'application en cours d'exécution sur le cluster à charge équilibrée n'est pas totalement indisponible en cas d'échec d'un domaine d'erreur physique.
Décision de conception - Les décisions que vous prenez dans les Tâches 1 et 2 peuvent être entrées dans la feuille de calcul Settings (Paramètres).
Tâche 3 : Définir la capacité de réserve
La défaillance de serveurs individuels dans la structure est inévitable. La conception de la structure doit prendre en compte la défaillance de serveurs individuels, comme il prend en compte la défaillance de collections de serveurs dans les domaines d'erreur et de maintenance. L'illustration suivante est identique à la Figure 5, mais la couleur rouge est utilisée pour identifier les trois serveurs en échec.
Figure 6 :Serveurs en échec
Dans la Figure 6, les hôtes de virtualisation de serveur ont échoué dans les groupes hôtes, les domaines de maintenance et les domaines d'erreurs physiques suivants.
Groupe hôte |
Domaine d'erreur physique |
Domaine de maintenance |
---|---|---|
2 |
2 |
3 |
3 |
3 |
2 |
4 |
4 |
2 |
L'application en cours d'exécution sur le cluster à charge équilibrée est toujours disponible, même si l'hôte dans le domaine d'erreur physique 2 a échoué, mais l'application fonctionnera à une capacité inférieure d'un tiers.
Envisagez ce qui se passerait si l'hôte de virtualisation de serveur qui hébergeait l'un des ordinateurs virtuels dans le domaine d'erreur physique 3 avait échoué ou si le domaine de maintenance 2 avait été arrêté pour maintenance. Dans ce cas, la capacité de l'application aurait baissé de 2/3.
Vous pouvez décider que cela est inacceptable pour votre structure de virtualisation. Pour atténuer l'impact des serveurs en échec, vous pouvez vous assurer que chacun de vos domaines d'erreur physique et domaines de maintenance dispose d'une capacité de réserve suffisante afin que la capacité ne descende jamais sous le niveau acceptable que vous définissez.
Pour plus d'informations sur le calcul de la capacité de réserve, voir Capacité de réserve dans le documents Cloud Services Foundation Reference Architecture – Principes, concepts et modèles.
Étape 6 : Planifier les caractéristiques de capacité initiales
Après avoir effectué toutes les tâches de ce document, vous serez en mesure de déterminer les coûts initiaux d'hébergement d'ordinateurs virtuels et de stockage sur la structure, de même que les niveaux de qualité de service initiaux que peut atteindre la structure. Vous ne pourrez pas finaliser ces tâches tant que vous n'aurez pas implémenté les outils de gestion de votre structure et les ressources humaines, qui sont présentés dans la section Étapes suivantes de ce document.
Tâche 1 : Définir les mesures SLA initiales pour le stockage et les ordinateurs virtuels
En tant qu'administrateur de structure, vous allez probablement définir un contrat de niveau de service (SLA) qui détaille les mesures de qualité de service auxquelles la structure répondra. Les administrateurs de votre ordinateur virtuel auront besoin de cette information pour planifier la manière dont les utilisateurs utiliseront la structure.
Au minimum, ces mesures incluront une mesure de disponibilité, mais elles peuvent également inclure d'autres mesures. Pour avoir une idée des mesures SLA d'une structure de virtualisation, vous pouvez consulter ce qui est proposé par les fournisseurs de cloud public comme Microsoft Azure. Pour l'hébergement d'ordinateurs virtuels, ce contrat garantit que lorsqu'un client déploie sur deux ou plusieurs instances d'un ordinateur virtuel exécutant la même charge de travail et déploie ces instances dans différents domaines d'erreur et de mise à niveau (appelés « domaines de maintenance » dans ce document), au moins un de ces ordinateurs virtuels sera disponible 99,95 % du temps.
Pour obtenir une description complète du contrat SLA pour Azure, voir Contrats de niveau de service. Idéalement, votre structure de virtualisation égalera ou dépassera les contrats de niveau de service des fournisseurs de cloud public.
Tâche 2 : Définir les coûts initiaux pour l'hébergement de stockage et d'ordinateurs virtuels
Une fois votre structure conçue, vous pourrez également calculer :
les coûts en matériel, espace, alimentation et refroidissement de structure ;
la capacité d'hébergement de la structure.
Ces informations, combinées aux autres coûts, comme le coût des outils de gestion de votre structure et des ressources humaines, vous permettront de déterminer les coûts finaux de l'hébergement des ordinateurs virtuels et du stockage.
Pour avoir une idée des coûts de base pour les ordinateurs virtuels et le stockage, vous pouvez examiner les coûts d'hébergement de fournisseurs de cloud public comme Microsoft Azure. Pour plus d'informations, voir Machines virtuelles - Tarification.
Même si ce n'est pas toujours le cas, vous constaterez généralement que vos coûts d'hébergement sont supérieurs à ceux des fournisseurs publics, car votre structure sera beaucoup plus petite que les structures de grands fournisseurs publics qui sont capables d'obtenir des remises sur volume pour le matériel, l'espace de centre de données et l'alimentation.
Étapes suivantes
Une fois que vous aurez terminé toutes les tâches de ce document, vous disposerez d'une conception de structure qui répond aux besoins de votre organisation. Vous disposerez également d'une définition des caractéristiques de service initiale qui inclut les coûts et les mesures de niveau de service. Vous ne pourrez pas déterminer vos métriques de niveau de service ni vos coûts finaux tant que vous n'aurez pas déterminé les coûts des ressources humaines et les outils et processus de gestion que vous utiliserez pour votre structure.
Microsoft System Center 2012 offre un ensemble complet de fonctionnalités vous permettant de configurer, d'analyser et de gérer votre structure de virtualisation. Pour plus d'informations sur l'utilisation de System Center pour la gestion de la structure, lisez les ressources suivantes :