Virtualisierung: Was ist neu in Hyper-V

Einige der wichtigsten Verbesserungen in Windows Server 2012 drehen sich um Hyper-V. Hier ist ein tiefer Blick in einige Verbesserungen.

Paul Schnackenburg

Hyper-V ist an der Spitze der einige der wichtigsten Änderungen in Windows Server 2012. Es gibt so viele neue und verbesserte Features, die Planung einer erfolgreichen Implementierung der Hyper-V einen Einblick in die Tiefe dieser technischen Änderungen erfordert.

Viele der erweiterten Funktionen unterstützen verschiedene Aspekte der Vernetzung. Es gibt auch Verbesserungen an Skalierbarkeit, Sicherheit, Speicher und Migration von virtuellen Maschinen (VM). In diesem ersten von zwei Artikeln konzentriere ich mich auf einzelnen Stamm I/O Virtualisierung (SR-IOV), Netzwerk Überwachung und Qualität der Service (QoS), NIC-teaming, das erweiterbare virtuelle Umschaltung Netzwerkvirtualisierung und Software defined Vernetzung (SDN).

SR-IOV

SR-IOV ist eine neue Technologie, die im wesentlichen tut was für die Prozessor-Virtualisierung Intel Virtualization Technology (Intel VT) und AMD Virtualization (AMD-V) tun. Es erhöht die Leistung durch Verschieben der Funktionalität von Software auf dedizierter Hardware. SR-IOV hat bestimmte Verwendungszwecke und einige Einschränkungen, die Sie benötigen, zu berücksichtigen bei der Planung von neuen Hyper-V-Cluster.

Mit Netzwerkkarten, die SR-IOV, zusammen mit einem Server zu unterstützen, die SR-IOV in seinem BIOS unterstützt, stellt die NIC virtuelle Funktionen (VFs) oder virtuellen Kopien von sich selbst auf VMs. Da SR-IOV ziemlich neu ist, stellen Sie sicher, dass Sie überprüfen Ihr bestimmten Netzwerk-Karte-Modell. Einige Karten bieten nur vier oder acht VFs, während andere bis zu 64 bieten. Beim Erstellen eines neuen externen virtuellen Switches können wählen Sie einfach um zu machen, einen SR-IOV-Schalter (siehe Abbildung 1). Einen normalen vSwitch kann nicht später konvertiert werden.

As long as all prerequisites have been fulfilled, enabling SR-IOV is a single checkbox at switch-creation time

Abbildung 1 , solange alle Voraussetzungen erfüllt sind, ein einzelnes Kontrollkästchen zum Zeitpunkt der Switch-Erstellung ist SR-IOV aktivieren.

SR-IOV muss gewisse Einschränkungen. Wenn Sie den virtuellen Switch Port Access Control Lists (ACLs), Erweiterungen oder Richtlinien konfigurieren, ist SR-IOV deaktiviert, da der Verkehr völlig Schalters umgeht. Sie können nicht zwei SR-IOV-Netzwerkkarten im Host-team. Sie können, jedoch nehmen zwei physischen SR-IOV-NICs im Host, erstellen Sie separate virtuelle Switches und team zwei virtuelle Netzwerkkarten innerhalb einer VM.

Live-Migration einer virtuellen Maschine mit SR-IOV NICs funktioniert (im Gegensatz zu vMotion in vSphere 5.1), wie jede SR-IOV-Netzwerkkarte durch eine gewöhnliche VM Bus NIC "gespiegelt" ist Also weiter wenn Sie eine virtuellen Maschine zu einem Host migriert, das SR-IOV NICs nicht oder wo gibt es nicht mehr kostenlos VFs, der Verkehr einfach über normale synthetische Verbindungen.

Bandbreite ist nicht unbedingt der entscheidende Vorteil der SR-IOV in Hyper-V. Die VM-Bus kann einen 10Gb-Link zu sättigen, aber diese Menge an Datenverkehr generiert genügend CPU-Auslastung um ein Kern zu besetzen. Also wenn niedriger CPU-Auslastung eine wichtige Design-Ziel ist es, ist SR-IOV der Schlüssel. Wenn die Wartezeit ein wichtiger Aspekt ist, gibt SR-IOV Leistung in der Nähe eine physische NIC

Auf einem Host, wo Sie eine Menge von VM Eingangsverkehr erwarten, vertreibt dynamische Virtual Machine Queue (dVMQ) den Datenverkehr in Warteschlangen für jede VM basierend auf MAC Adresse hackt. Es wird auch die Interrupts über CPU-Kerne verteilt.

Messung und Überwachung

Hyper-V, kommt jetzt mit integrierten VM Ressource: Einsatz Dosierung. Dies ist in erster Linie für das hosting Szenarien geeignet. Es ist auch nützlich, in privaten Wolken zur Karte-Back oder Chargeback-Datenerfassung. Die Dosierung Funktionen verfolgen durchschnittliche CPU- und Speicherauslastung, zusammen mit Festplatte und Netzwerk-Verkehr. Da es nur durch Windows PowerShellverfügbar ist, können Sie umfassendere Datenerfassung und Visualisierung mit System Center 2012 Virtual Machine Manager (VMM) SP1 tun.

Sie können auch einen ACL-Port hinzufügen, mit der Aktion, die Dosierung mit einem virtuellen Switch, so dass Sie Internetverkehr (Standardgateway) von Datacenter-Binnenverkehr Dosierung Zwecken trennen können. Während jener Zeiten, wenn Sie Netzwerkpakete in einem virtuellen Netzwerk erfassen möchten, können Sie definieren einen monitoring Port oder port-Spiegelung, so können Sie eine Netzwerkmonitor.

Bandbreiten-management

Viele Cluster-Designs aus den letzten Jahren verlassen sich auf mehrere 1Gb NICs, jeweils bestimmten Verkehr gewidmet — Livemigration, VM Kommunikation, Cluster-Heartbeat, Verwaltung und vielleicht iSCSI. 10 Gb Ethernet mehr alltäglich wird, haben die meisten Server nur ein paar davon NICs.

Die neue QoS-Funktion können Sie sowohl eine Mindestbandbreite definieren, die immer für einen bestimmten Dienst, sowie ein Höchstgehalt verfügbar sein sollten (siehe Abbildung 2). Dadurch können Sie nehmen Sie einen 10Gb-Link und teilen ihre Verwendung unter unterschiedlichen Dienstleistungen.

You can control both minimum and maximum bandwidth used by a VM

Abbildung 2 Sie können steuern, minimale und maximale Bandbreite anhand einer VM.

In Zeiten der keine Staus kann jeden Dienst auf seinen Maximalwert zugeteilte Bandbreite verbrauchen. Während starker Netzwerkverkehr garantiert jeden Dienst ein Mindestanteil an. Die Software-basierte QoS bietet feine Granularität für verschiedene Arten des Verkehrs, sondern kommt mit einigen Verarbeitungsaufwand.

Es gibt auch eingebaute Filter für gängige Typen von Datenverkehr, wie live-Migration, Server Message Block (SMB) und iSCSI. Dadurch schneller zu laufen mit QoS zu erhalten. Diese Bandbreiten-Management-Funktionen werden insbesondere Hoster, ansprechen, wie sie können jetzt klar definieren und Erzwingen von Service Level Agreements (SLAs).

Wenn Sie direkte SMB (neu in Windows Server 2012) auf Remote Direct Memory Access (RDMA) Netzwerkkarten verwenden, wird diese Software QoS umgehen. In diesen Szenarien — oder wenn Sie nicht-TCP Verkehr haben Sie steuern möchten — Windows Server unterstützt auch Data Center Bridging (DCB). Mit DCB wird die Bandbreite von Hardware auf kompatiblen Netzwerkkarten geleitet. Dies kann nur Sie acht Verkehrsklassen definieren, aber es kommt mit viel weniger Verarbeitungsaufwand.

Teaming Netzwerk-Karten

Viele Server beruhen heute auf Netzwerk Karte teaming für Fehlertoleranz und erhöhten Durchsatz. Jeder NIC-Anbieter hat seine eigene Lösung, so dass dies unflexibel und schwierig zu verwalten sein kann. Einschließlich native NIC-teaming (auch bekannt als Load balancing Failover) wird in virtualisierten Umgebungen nützlich sein.

Sie können bis zu 32 NICs (von verschiedenen Anbietern, falls zutreffend) team. Sie können jedes Team in den Switch unabhängige oder abhängige Switch Modus konfigurieren (siehe Abbildung 3). Die erste ist anwendbar, wo Sie unmanaged Switches haben oder wo Sie die Switch-Konfiguration nicht ändern können.

Teaming multiple NICs is easy in Windows Server 2012, just be sure to use the best options

Abbildung 3 mehrere Netzwerkkarten Teaming ist einfach Windows Server 2012, nur sicher sein, die besten Optionen zu verwenden.

Dies eignet sich gut für Redundanz. Verwenden Sie zwei Netzwerkkarten mit einer im standby-Modus. Wenn das erste man fehlschlägt, übernimmt zweite. Für zusätzlichen Schutz können Sie jede Netzwerkkarte zu einem anderen Switch verbinden.

Wenn Sie beide NICs aktiv sein möchten, können Sie entweder Adresse Hash oder Hyper-V-Anschluss Lastenausgleichsmodus. Der erste Modus funktioniert gut, wenn es eine Menge des ausgehenden Datenverkehrs, wie z. B. mit Medien oder Webservern gibt. Eingehender Datenverkehr wird durch nur eine NIC gehen. Im letztere Modus funktioniert gut in Szenarien, wo Sie mehrere VMs auf einem Host, aber beide brauchen nicht mehr als die Geschwindigkeit einer einzelnen NIC

Für komplexere Szenarien ist Switch angewiesen-Modus besser. Sie können dies entweder statisch oder Link Aggregation Control Protocol (LACP) Modus einstellen. Du musst das Netzwerkteam Schalter korrekt eingerichtet sind. Statische funktioniert nur in kleineren Umgebungen, die nicht oft ändern. LACP Mannschaften am Switch automatisch identifiziert und kann zusätzliche Netzwerkkarten erkennen, wenn sie das Team hinzugefügt sind.

VLANs können Sie in Verbindung mit Teams mit mehreren Team-Schnittstellen für jedes Team reagieren auf einem bestimmten VLAN-ID. Sie können sogar eine Mannschaft mit nur einer einzigen Netzwerkkarte einrichten, aber mehrere Team-Schnittstellen für die VLAN-basierter Datenverkehr Trennung.

Haben Sie mehrere VMs auf einem Host, die Sie mit verschiedenen VLANs sprechen möchten, verwenden Sie den Hyper-V-Schalter und die virtuellen Netzwerkkarten Zugang einrichten. Don' t Netzwerk Teams im Host verwenden. Teaming NICs innerhalb einer VM wird unterstützt, nur sicher sein, die AllowTeaming-Einstellung aktivieren.

Erweiterbare virtuelle Umschaltung

Der neue virtuelle Switch ist eine gewaltige Verbesserung gegenüber der vorherigen Version. Es fügt Wolke Grundlagen wie Mieter Isolierung, Trafficshaping, einfacher Problembehandlung und Schutz gegen Räuber VMs. Ein weiterer neuer Aspekt an den virtuellen Switch ist, dass Drittanbieter Funktionen, entweder durch hinzufügen können die Network Driver Interface Specification (NDIS 6.0) oder die Windows-Filterplattform (WFP) APIs. Dies sind die beiden vertrauten Umgebungen für Netzwerk-Software-Ingenieure.

Es gibt mehrere verschiedene Varianten von Erweiterungen:

  • Eine Netzerweiterung Packet Inspektion kann Pakete (schreibgeschützt) anzeigen wie ein- und Ausgang auf den Schalter, um die Änderungen zu identifizieren. Ein Beispiel ist sFlow von InMon Corp. Sie können die kostenlose Version, sFlowTrend, um den Datenverkehr zu visualisieren.
  • Eine Netzwerk-Paket-Filter-Erweiterung kann Pakete im Switch erstellen, Filtern und ändern. Ein Beispiel ist Security Manager von 5nine Software. Dies bietet ein Intrusion Erkennung System (IDS), Firewall und Anti-Malware, ohne dass einen Agent in jeder VM.
  • Netzwerk Weiterleitung Erweiterungen ändern die Switch-Weiterleitung. Es kann eine der diese Installation in jedem vSwitch nur. Das ikonische Beispiel hier ist die Cisco Nexus 1000V.

Verwalten von Erweiterungen ist relativ einfach (siehe Abbildung 4). VMM 2012 SP1 unterstützt zentral verwalten von Erweiterungen und Switch-Konfiguration, und können dies automatisch verteilen an alle Hosts.

Enabling and configuring network extensions in the new virtual switch is easy

Abbildung 4 Aktivieren und Konfigurieren von Netzwerk-Erweiterungen in den neuen virtuellen Switch ist einfach.

Sie können einen Switch mit mehreren virtuellen NICs verbunden haben. Port ACLs können auch durch lokale oder entfernte IPv4, IPv6 oder MAC-Adressen für Steuerung von Verkehr und Messungsdaten Netzwerk festgelegt werden. Hosting-Umgebungen schätzen die Router-Guard, der VMs von der Schauspielerei auf Routerankündigungen hält, sowie die DHCP-Garde, die hält (DHCP = Dynamic Host Configuration Protocol) Datenverkehr, der von einer virtuellen Maschine, wenn Sie den virtuellen Computer als DHCP-Server genehmigt haben.

IPsec ist eine hervorragende Möglichkeit, den Datenverkehr zu schützen, aber es wird oft übersehen, wegen der hohen Prozessoroverhead. Hyper-V unterstützt nun IPsecTO (Task Offload) für VMs unter Windows Server 2008 R2 und Windows Server 2012. Diese Funktion überträgt die Berechnungen auf eine physische Netzwerkkarte mit IPSecTO Unterstützung.

SDN

SDN ist eine neue Möglichkeit zum Verwalten von Netzwerken und VM-Isolation in großen Rechenzentren und Clustern. Rechenzentren, Netzwerke und Segregation basierend auf zentralen Richtlinien steuern zu können müssen, und manuelle VLAN-Switch-Konfiguration einfach nicht flexibel genug. Netzwerkvirtualisierung (NV) ist Bestandteil der Microsoft Cloud OS Vision. Wo NV und SDN wirklich glänzen ist, wenn Sie Teil der Infrastruktur der Cloud verschieben möchten.

Oft müssen Sie die IP-Adressen Ihrer virtuellen Computer ändern. Dies ist nicht einfach zu tun, zumal sie häufig an Sicherheits-und Firewallrichtlinien an mehreren Stellen gebunden sind. Es ist auch nicht sehr flexibel; noch macht es es einfach verschieben von VMs zwischen Cloud-Providern.

Windows Server 2012 NV tut was Virtualisierung für die Fabric-Komponenten wie Prozessor, Arbeitsspeicher und Festplatte getan hat. Jede VM mit NV meint, dass es auf einer Netzwerk-Infrastruktur läuft, die er "besitzt". Im Hintergrund hat es tatsächlich von anderen VMs durch Software isoliert. NV löst auch ordentlich Verschieben von VMs bringen Ihre eigenen IP (BYOIP) aktivieren. VMs können ihre Adressen halten, wie sie auf eine öffentliche Cloud aufgestiegen sind. Auf diese Weise können sie nahtlos mit dem Rest Ihrer Infrastruktur kommunizieren.

Jede VM hat zwei IP-Adressen — die Kundenadresse (CA) ist, was die VM verwendet und die Provider-Adresse (PA) ist, was tatsächlich im Netzwerk verwendet wird. VMs mit NV können mit nicht - NV VMs auf dem gleichen Host gemischt werden. Broadcast-Verkehr wird nie an "alle Hosts" auf ein Segment gesendet. Es geht immer durch NV, dass Rassentrennung beibehalten. Sie können jede VM dafür konfigurieren, da NV transparent auf das zugrunde liegende Betriebssystem ist.

Die zwei Optionen zum Konfigurieren der NV sind IP umschreiben und (GRE = Generic Routing Encapsulation). IP schreiben Sie ändert jedes Paket, wie es erreicht oder einen Host mit der entsprechenden CA oder PA verlässt. Dies bedeutet Netzwerktechnik braucht keine Änderungen und die NIC entlastet arbeiten. Es bedeutet auch, dass jede VM ein PA und einer Zertifizierungsstelle benötigt. Dies erhöht die Adresse Management-Belastung.

GRE kapselt das CA-Paket in einem PA-Paket mit einer zugehörigen virtuellen Subnetz-ID Dies führt zu Netzwerk-Hardware wird pro Mieter Verkehrspolitik anwenden können. Jede VM auf einem Host kann auch teilen der gleichen PA. Dies führt zu weniger Adressen zu verfolgen.

Der Kompromiss ist NIC-Hardware wird verlagert nicht funktionieren, wie sie auf korrekte IP-Header verlassen. Die Lösung für die Zukunft ist ein neuer Standard Netzwerkvirtualisierung mit Generic Routing Encapsulation (NVGRE) genannt. Dies vereint die Vorteile von GRE mit den IP-Rewrite-Vorteil, dass NIC Arbeit entlastet, wie erwartet.

VMM und Netzwerk-Virtualisierung

VMM 2012 SP1 fügt zwei Objekte für die Konfiguration von NV — einen logischen Switch und einem VM-Netzwerk. Letzteres ist ein routing-Domäne und kann mehrere virtuelle Teilnetze Haus, solange sie kommunizieren können. Sie können jede VM-Netzwerk mit vier Isolierung Typen einrichten: keine Isolation, VLAN, NV oder extern.

Die erste eignet sich für Management-Networks, die müssen alle Netzwerke erreichen zu können. Der VLAN-Typ ist geeignet, wo Sie ein vorhandenes Isolierungsmodell haben, das funktioniert. Es stützt sich auf mit Schaltern (physische und virtuelle) ordnungsgemäß konfiguriert. Jede VM-Netzwerk ist eine einzelne VLAN zugeordnet.

Die NV NV verwendet Windows Server 2012. Die Zuordnungstabellen, die CA nachverfolgen, PA, die Zuordnung von VMM gepflegt werden. Jeder Host erstellt dynamisch Zuordnungstabellen, wie es sendet und den Netzwerkverkehr empfängt. Wenn ein Host muss mit einem Host zu kommunizieren, was er nicht weiß, wird dessen Zuordnung von VMM aktualisiert. Dies kann die Tabellengröße in großen Netzwerken reduzieren.

Das zweite Objekt, das ist neu in VMM ist der lang ersehnte logischen Switch. Dies können Sie zentral vSwitch Einstellungen definieren, die automatisch an alle Hosts repliziert werden. Es gibt auch ein virtuellen Switch Erweiterungs-Manager (Izvestnye), mit der Sie Erweiterungen für virtuelle Switches zentral zu steuern.

Erweiterungen und deren Daten werden mit der VMs gehalten, wie Sie leben diese von Host zu Host migrieren. Sie können auch zentral definieren und Bandbreite Richtlinien auf VMs anwenden. Virtuelle Netzwerke sind in der VM Bereitstellungsprozess, eine wirklich automatisierte Lösung integriert.

Hyper-V im Rechenzentrum

Mit diesen neuen Netzwerk-Design-Funktionen und Optionen in Windows Server 2012 Hyper-V ist es klar, dass Sie eine Reise zurück ans Reißbrett benötigen. Es gibt ein paar andere Netzwerkerweiterungen, die nicht Hyper-V-spezifisch sind, die jedoch Ihr Design beeinflussen kann.

Für große Umgebungen unterstützt nun Windows Server 2012 Datacenter TCP (DTCP) für verbesserten Durchsatz und geringere Pufferspeicher verwendet in Schaltern (solange sie Explicit Congestion Notification-RFC 3168 [ECN] unterstützen). Wenn Sie noch IP-Adressen mit einer Excel-Tabelle erfasst sind, empfiehlt es sich, IP-Adressverwaltung (IPAM) in Windows Server 2012 anschauen. Diese kommuniziert mit Ihrem Active Directory, DHCP und DNS-Server für IPv4 und IPv6. VMM 2012 SP1 hat eine Skript (Ipamintegration.ps1), die IP-Adressen zugewiesen IPAM über VMM exportiert. Sie können dies in regelmäßigen Abständen ausführen.

Nächsten Monat werde ich Verbesserungen bei Skalierbarkeit Verbesserungen, VM-Migration und Hyper-V-Speicher (einschließlich könnend VMs von Dateifreigaben zu verkehren) behandeln.

Paul Schnackenburg

Paul Schnackenburg hat es seit den Tagen von 286 Computern gearbeitet. Er arbeitet Teilzeit als IT-Lehrer und führt sein eigenes Unternehmen, Experte IT-Lösungen an der Sunshine Coast in Australien. Er verfügt über MCT, MCSE, MCTS und MCITP-Zertifizierungen und Windows Server Hyper-V und Exchange-Lösungen für Unternehmen spezialisiert. Sie erreichen ihn unter paul@expertitsolutions.com.au und folgen Sie seinen Blog unter TellITasITis.com.au.

Verwandte Inhalte