Virtualisierung: Vorbereitung auf die Virtualisierung

Die Vorbereitung auf die Bereitstellung virtueller Computer in Ihrer Infrastruktur erfordert etwas Nachdenken und Arbeit, lohnt sich jedoch.

Brian Marranzini

Die Virtualisierung ist eine wertvolle Technologie, die Ihnen bei der optimalen Nutzung Ihrer IT-Investitionen hilft. Das Kosten-Nutzen-Verhältnis kann einfach berechnet und begründet werden. Die Virtualisierung kann auch für die Verwaltung und Verfügbarkeit nützlich sein, indem sie Funktionen wie Sicherung, Wiederherstellung, Portabilität, Tests und Rollbacks bereitstellt.

Sie können einen Snapshot eines virtuellen Computers erstellen, bevor Sie die Änderungen durchführen, und den ursprünglichen Zustand wiederherstellen (Rollback), wenn die Änderungen ein Problem verursachen. Sie können über unterschiedliche Hardware hinweg Sicherungen und Wiederherstellungen durchführen, indem Sie den virtuellen Computer einfach in ein Hyper-V-System exportieren oder importieren. Sie können durch das Clustern von Virtualisierungshosts Hardwareredundanz erzielen.

Die Bereitstellung virtueller Computer erfordert spezifische Wartungstätigkeiten und am wichtigsten, eine korrekte Systembewertung. Außerdem erfordern virtualisierte Anwendungen zusätzliche Verwaltungs- und Überwachungsstufen, die für physische Computer nicht erforderlich sind.

In diesem Artikel behandele ich diese und andere Aufgaben, die Sie bei der Bereitstellung einer virtuellen Umgebung lösen müssen. Weitere Informationen finden Sie in den Handbüchern für die Erstellung, Architektur und Bereitstellung. Dabei handelt es sich um bewährte Verfahren für die Vorbereitung auf Virtualisierung und Hyper-V. Diese helfen Ihnen, die Virtualisierung optimal zu nutzen und gleichzeitig die Risiken zu senken.

Schnelle Bereitstellung der Infrastruktur

Die Virtualisierung hat zu einem Paradigmenwechsel geführt. In der Vergangenheit dauerte es gewöhnlich Wochen und manchmal Monate, um Bestellungen auszuführen, Racks einzurichten, die Stromanschlüsse bereitzustellen, das Netzwerk bereitzustellen und die Computer bereitzustellen. Nun können Sie all dies mit einem Rechtsklick auf einen Computer in System Center Virtual Machine Manager (VMM) und der Auswahl von "Vorlage" und "Bereitstellen" erreichen.

Die Grundlagenarbeit ist im Wesentlichen zu diesem Zeitpunkt erledigt. Mit der Entwicklung einer Vorlage erhalten Sie einen vorbereiteten virtuellen Computer auf der Basis Ihrer spezifischen Anforderungen, der einer Domäne angeschlossen ist und innerhalb von 30 Minuten oder weniger ausgeführt werden kann, wenn Sie SAN-basierte Kopiertechnologien mit VMM verwenden. Nach der Ermittlung des Virtualisierungshosts mit den größten Kapazitäten wird der virtuelle Computer auf diesem Host platziert. Auch wenn dies einfach klingt, handelt es sich bei Virtualisierung um alles andere als eine Fertiglösung.

Bevor Sie sich der Hardware zuwenden können, müssen Sie sich die Frage stellen, ob Sie über die entsprechenden Lizenzen verfügen. Eine detaillierte Betrachtung von Lizenzierungsfragen ist zwar nicht Gegenstand dieses Artikels, ich gebe hier dennoch eine grundlegende Übersicht. Die offizielle Ansicht hierzu finden Sie in den Nutzungsrechten für Produkte von Microsoft.

Auf Windows Server 2008 Standard Edition können Sie pro Lizenz einen einzigen virtuellen Computer ausführen. Die Enterprise Edition ermöglicht die Ausführung von bis zu vier virtuellen Computern. Die Datacenter Edition ermöglicht die Ausführung einer unbegrenzten Anzahl virtueller Computer und wird pro physischen Prozessor (nicht pro Kern) lizenziert.

Wenn Sie die Windows Server-Lizenzen mit der Hardware erworben haben und die OEM-Versionen ausführen, können Sie das Betriebssystem nicht von der jeweiligen Hardware verschieben. Es funktioniert nur mit diesem spezifischen Gerät. Wenn Sie die Windows Server-Lizenzen über Volumenlizenzierung oder einen Wiederverkäufer für Großkunden (Large Account Reseller, LAR) erworben haben, können Sie die Lizenzen alle 90 Tage verschieben bzw. bei Auftreten von Hardwarefehlern.

Wenn Sie virtuelle Computer innerhalb eines 90-Tage-Zeitraums clustern oder verschieben, können Sie die einzelnen Hosts für die maximale Anzahl von virtuellen Computern lizenzieren, die Sie innerhalb eines 90-Tage-Zeitraums ausführen müssen. Sie können auch für alle Hosts eine Datacenter Edition erwerben.

Datacenter Edition ist die kostengünstigste Lösung für den Kauf von Windows, wenn Sie mehr als drei bis vier virtuelle Computer pro physischem Prozessor ausführen. Sie sollten auch an Windows Software Assurance denken. Wenn die nächste Version von Windows veröffentlicht wird und Sie auch nur eine Kopie installieren und im Cluster verschieben möchten, benötigen Sie für jeden Host eine Lizenz.

Die System Center-Produkte sind als Enterprise und Datacenter Suite-Versionen erhältlich. Sie können Berechtigungen für den gesamten System Center-Stack mit einer unbegrenzten Anzahl virtueller Computer erwerben. Multiplizieren Sie die Anzahl der virtuellen Computer mit der Anzahl der einzelnen System Center Management-Lizenzen, die Sie pro virtuellem Computer benötigen, und vergleichen Sie die Kosten für den Host mit den Kosten für die entsprechende System Center Management Suite.

Bei ungefähr drei Tools oder drei virtuellen Computern stellen die Suiten die kostengünstigere Alternative für die Lizenzierung dar. Für die meisten Anwendungen besteht eine Lizenzmobilität, sodass diese innerhalb einer Farm verschoben werden können. Die Farm kann bis zu zwei Rechenzentren umfassen.

Konvertierung zu einer virtuellen Umgebung

Wenn Sie physische Computer mittels VMM zu virtuellen Computern konvertieren oder eine neue Umgebung erstellen, können Sie dies mittels Operations Manager oder dem kostenlosen Microsoft Assessment and Planning (MAP)-Toolkit unterstützen. Diese beiden Tools helfen Ihnen, die Leistungsdaten potenzieller Kandidaten für die Virtualisierung zu erfassen und zu prüfen.

Werfen wir nun einen Blick auf die Hardware. Die von Ihnen ausgewählte Hardware muss die kumulative Arbeitsauslastung bewältigen können, die Sie zu Spitzenzeiten ausführen werden. Wenn Sie eine Arbeitsauslastung haben, die bei einer durchschnittlichen Nutzungsrate von 80 Prozent zu Spitzenzeiten einen Dualcore-Prozessor mit 2 GHz verwendet, und dazu eine andere Arbeitsauslastung, die denselben Prozessor bei einer Nutzungsrate von 50 % zu Spitzenzeiten nutzt, müssen Sie ein System bereitstellen, das mindestens 150 Prozent abdecken kann.

Sie können auch einen Dualcore-Prozessor mit 3 GHz auf dem physischen Host verwenden, um Reserven zu schaffen (in diesem Fall ungefähr 10 Prozent). In der Regel stellt der Prozessor jedoch nicht den begrenzenden Faktor dar. Die meisten Arbeitsauslastungen nutzen die CPU im Schnitt nur wenig.

Die größten Hindernisse für Virtualisierungsauslastungen stellen – in absteigender Reihenfolge – die Festplatten-I/O, der Arbeitsspeicher, die Netzwerk-I/O und zum Schluss die CPU dar. Die Zunahme der CPU-Geschwindigkeiten und der Anzahl der Prozessorkerne erfüllt bzw. übertrifft nach wie vor das Moore’sche Gesetz der Kapazitätssteigerung. Die Preise für den Arbeitsspeicher sinken weiter, während die Dichte zunimmt.

Die Festplattengröße wurde über die Zeit erheblich gesteigert. Die Festplatten-I/O ist nach wie vor ein Kostenfaktor. Wenn Sie maximale Kapazität bereitstellen, nimmt die Geschwindigkeit insgesamt ab. Stellen Sie sicher, dass Sie das Profil für die Festplatten-I/O Ihrer Arbeitsauslastungen sorgfältig untersuchen.

Sie müssen außerdem bei Ihrer Planung den Typ der I/O verstehen und den Speicherplatz für die Arbeitsauslastung optimieren. Im Fall einer Virtual Desktop Infrastructure (VDI) müssen Sie auf eine hohe Auslastung in Bezug auf Startvorgänge vorbereitet sein, wenn Ihre Mitarbeiter die Arbeit aufnehmen und Sie die virtuellen Computer speichern oder abschalten, wenn die Benutzer nicht aktiv sind.

Im Allgemeinen gilt: Mehr physischer Spindeln sind besser. Im Fall von Clustern sollten Sie für die SAN-basierte Festplatte eine optimale Beschreibbarkeit, dedizierte Kommunikationskanäle sowie Spindeln für die Virtualisierungsauslastungen vorsehen. Die Verwendung mehrere Pfade kann dies unterstützen. Die Trennung und Segmentierung (nicht Partitionierung) von Festplatten verhindert, dass sich Arbeitsauslastungen, die die I/O intensiv beanspruchen, auf weniger I/O-intensive Arbeitsauslastungen auswirken.

Sie müssen auch die Konfiguration der Festplatten der virtuellen Computer berücksichtigen. Sie können sich für dynamisch erweiternde virtuelle Festplatten (Virtual Hard Drives, VHDs), fixierte VHDs, Pass-Through oder systemeigenes iSCSI direkt innerhalb des virtuellen Gastcomputers entscheiden. Diese Konfigurationen werden alle unterstützt.

Die grundsätzlichen Empfehlungen sind vergleichsweise einfach: Verwenden Sie eine VHD, es sei denn, Sie benötigen unbedingt direkten Zugriff auf SAN-spezifische Funktionen. Dazu zählen Funktionen wie SAN-basierte, anwendungsabhängige Sicherungen oder Gast-zu-Gast-Clustering über iSCSI.

Fixierte VHDs bieten häufig eine bessere Leistung als dynamisch erweiternde VHDs. Sie kommen der Leistung systemeigener Festplatten tatsächlich sehr nahe. Sie können auch gemischte Konfigurationen verwenden. Ihre Entscheidung ist letztendlich von der Arbeitsauslastung abhängig. Weitere Informationen finden Sie im Whitepaper zur VHD-Leistung (möglicherweise in englischer Sprache).

Sie müssen auch daran denken, dass Sie dynamisch erweiternde VHDs, vom Host aus gesehen, ziemlich regelmäßig defragmentieren müssen. Die Häufigkeit ist von der Anzahl der Hosts auf dem Laufwerk abhängig und davon, wie häufig diese erweitern.

Eine letzte Überlegung zum Festplattenspeicherplatz besteht darin, dass Sie die Anforderungen für die Speicherung von Snapshots angemessen schätzen müssen. Sie sollten hierfür ungefähr 20 bis 30 Prozent zusätzliche Reserven einplanen, abhängig von der Häufigkeit und Anzahl der von Ihnen vorgesehenen Snapshots

Maximaler Arbeitsspeicher

Die Berechnung des benötigten Arbeitsspeichers ist vergleichsweise einfach. Berücksichtigen Sie den kumulativen Arbeitsspeicher für alle Arbeitsauslastungen zusammen, und fügen Sie 1 GB für den Host sowie 20 bis 30 MB für jeden Gast hinzu.

Hyper-V SP1 enthält eine dynamische Speicherzuweisung, sodass virtuelle Computer Arbeitsspeicher, den sie aktuell nicht benötigen, an den Host zurückgeben können. Auch ohne Service Pack 1 können Sie optimieren, wenn Sie untersuchen, wie viel Arbeitsspeicher die einzelnen Arbeitsauslastungen jeweils in Anspruch nehmen.

Mithilfe von Virtualisierung können Sie auch den für eine Arbeitsauslastung verfügbaren Arbeitsspeicher anhand des Bedarfs und nicht anhand der tatsächlichen Speicherchipgrößen anpassen. Sie können beispielsweise einen virtuellen Computer mit 600 MB Arbeitsspeicher erstellen. Normalerweise wären Sie durch die Größe der physischen Arbeitsspeicherchips und der entsprechenden Kanäle eingeschränkt. Die einzige Begrenzung hier ist, dass es sich um eine gerade Zahl handeln muss.

Mit System Center Operations Manager (SCOM) können Sie die Verlaufsdaten zur Leistung auf dem Gast analysieren und den Arbeitsspeicher auf Bedarfsbasis anpassen. Der dynamisch erweiternde Arbeitsspeicher in Hyper-V für Windows 2008 R2 SP1 wird die Anforderungen an Überwachung und Verwaltung reduzieren. Bis dahin können Sie wesentliche Fortschritte bei der Konsolidierung erzielen, indem Sie die Daten zum dynamischen Arbeitsspeicher für jeden einzelnen virtuellen Computer untersuchen.

Die größten Probleme hinsichtlich der Netzwerk-I/O stellen die Anzahl der Ports und die Größe des Durchsatzes dar, die für die Arbeitsauslastungen erforderlich sind. Die internen Switches der virtuellen Computer unterstützen einen hohen Durchsatz; jedoch nur, wenn Sie die Hardwareprofile der virtuellen Computer mittels des synthetischen Netzwerkschnittstellencontrollers (Network Interface Controller, NIC) konfigurieren. Der herkömmliche NIC ist auf 100 MB begrenzt. Wenn Sie für die anfängliche Bereitstellung herkömmliche NICs verwenden, sollten Sie diese entfernen und neu konfigurieren. Verwenden Sie synthetische NICs, wenn diese durch das Gastbetriebssystem unterstützt werden.

Die meisten Hostcomputer, die iSCSI für das Clustering verwenden, stellen zwei NICs mit Microsoft Multipath IO in einer Lastenausgleichkonfiguration ausschließlich für iSCSI bereit. Sie können diese für die schnelle Kommunikation bei der Bearbeitung von iSCSI-Aufgaben verwenden. Fügen Sie einen weiteren dedizierten NIC für die Hostverwaltung hinzu. Was übrig bleibt, ist für die virtuellen Computer bestimmt.

Wenn das Motherboard über zwei NICs verfügt, ist es in der Regel nützlich, mindestens einen zusätzlichen NIC mit 4 Ports hinzuzufügen. Es werden mehr NICs empfohlen, wenn Sie netzwerkintensive Auslastungen für virtuelle Computer ausführen, wie zum Beispiel die Betriebssystembereitstellung auf einem Dateiserver, der stark genutzt wird. Alle NICs sollten über mindestens 10 GB verfügen.

Bessere Sicherung

System Center Data Protection Manager (DPM) ist hervorragend für Sicherungen geeignet, da es Hyper-V-fähige Sicherungen ermöglicht. Außerdem bietet es anwendungsspezifische Sicherungen. Die Sicherung vollständiger virtueller Computer hat Vor- und Nachteile, verglichen mit anwendungsabhängigen Sicherungen. Eine der neuen Funktionen von DPM 2010 ist die Fähigkeit, eine VHD zu installieren und Dateien von der Sicherung des virtuellen Computers einzeln wiederherzustellen.

Evaluieren Sie die Anforderungen für jede Anwendung getrennt. Ein gutes Beispiel hierfür ist SharePoint. Wenn Sie ein Dokument aus einer Dokumentbibliothek nur mittels Sicherungen virtueller Computer wiederherstellen möchten, müssen Sie SQL Server, die Front-End-Webserver und einen Domänencontroller in einem privaten Netzwerk wiederherstellen. Als Nächstes müssen Sie die Bibliothek durchsuchen, um die Datei zu finden. Wenn Sie über eine Anwendungssicherung spezifisch für SharePoint verfügen, können Sie die Dokumentbibliothek einfach zu einer anderen Site wiederherstellen und die Datei von dort wiederherstellen.

Wenn Sie über SCOM verfügen, implementieren Sie am besten Performance and Resource Optimization (PRO). Mittels PRO kann SCOM Arbeitsauslastungen auf der Ebene des Hosts und der einzelnen Anwendungen überwachen. Es kann außerdem automatisch häufig auftretende Probleme behandeln, wie die Verschiebung eines virtuellen Computers von einem Host, wenn der CPU-Lüfter nicht schnell genug arbeitet oder die Auslastungsanforderungen die Kapazität des Hosts überschreiten. Weitere Informationen finden Sie im Handbuch für die Integration von SCOM und VMM (möglicherweise in englischer Sprache).

Es müssen außerdem einige Probleme im Hinblick auf die Virtualisierung von Domänencontrollern gelöst werden. Grundsätzlich sollten Sie keine Snapshots oder Sicherungen eines Domänencontrollers wiederherstellen. Dieses Handbuch enthält nützliche Informationen, die immer noch gültig sind, und beschreibt die Details der Virtualisierung eines Domänencontrollers.

Virtualisierung und Hyper-V sind nützliche Technologien, die die Ressourcen maximieren, die Verwaltung vereinfachen und die Kosten für die IT senken können. Wenn Sie Sie die Bereitstellung der virtuellen Infrastruktur sorgfältig planen, können Sie viele Probleme vermeiden.

Brian Marranzini

Brian Marranzini* ist Architekt für Kerninfrastrukturtechnologien mit dem Schwerpunkt auf Virtualisierung, Windows-Servern, Windows-Clients, Infrastruktur und Sicherheit. Er ist außerdem freier Autor und hat mehrere Artikel für Technologiezeitschriften verfasst sowie Webcasts organisiert. Ein weiterer Schwerpunkt seiner Tätigkeit liegt auf der Erstellung von Materialien für unternehmensinterne Schulungen sowie Schulungen für Kunden für Hands on Labs. Darüber hinaus hat er zahlreiche Sitzungen bei Veranstaltungen zur Einführung wichtiger Produkte vorbereitet und geleitet.*

Verwandter Inhalt: