Quality of Service (QoS) – Übersicht

 

Betrifft: Windows Server 2012

QoS ist eine Sammlung von Technologien, die eine kostengünstige Verwaltung des Netzwerkdatenverkehrs ermöglicht und die Benutzerfreundlichkeit in Unternehmensumgebungen,in kleinen Büros und sogar in Heimnetzwerken verbessert.

Dieses Dokument enthält einführende Informationen zur Quality of Service (QoS) in Windows Server® 2012.

QoS-Features

QoS-Technologien ermöglichen Ihnen das Erfüllen der Dienstanforderungen einer Arbeitsauslastung oder einer Anwendung durch das Messen der Netzwerkbandbreite, das Erkennen von veränderten Netzwerkbedingungen (z. B. Überlastung oder Verfügbarkeit der Bandbreite) und das Priorisieren – oder Drosseln – des Netzwerkdatenverkehrs. Beispielsweise können Sie mit QoS den Datenverkehr für latenzempfindliche Anwendungen (z. B. Sprach- oder Videostreaming) priorisieren und die Auswirkungen von latenzunempfindlichem Datenverkehr (z. B. Massendatenübertragungen) steuern.

QoS bietet die folgenden Features:

  • Bandbreitenverwaltung.

  • Klassifizierung und Tagging

  • Prioritätsbasierte Flusssteuerung

  • Richtlinienbasierter QoS und Hyper-V-QoS

Informationen zu diesen Features werden in den folgenden Abschnitten bereitgestellt.

Hinweis

QoS ist in allen Versionen von Windows Server 2012 und Windows® 8 enthalten und unterstützt alle QoS-APIs und -Features, die von QoS in Windows Server® 2008 R2 und Windows® 7 bereitgestellt werden. In Windows® RT ist QoS nicht verfügbar.

Bandbreitenverwaltung.

In früheren Versionen von QoS wie auch bei QoS in Windows Server 2012 legt das Feature „Maximale Bandbreite“ eine absolute Obergrenze – eine Drosselungsrate – für eine Arbeitsauslastung fest. In Windows Server 2012 wird die minimale Bandbreite eingeführt.

Die minimale Bandbreite stellt bei einer Netzwerküberlastung einen angegebenen Servicelevel für eine Arbeitsauslastung bereit, lässt jedoch eine höhere Bandbreitennutzung durch diese Arbeitsauslastung zu, wenn keine Überlastung des Netzwerks vorliegt. Eine Netzwerküberlastung tritt auf einem Computersystem auf, wenn mehrere Arbeitsauslastungen um den Zugriff auf ein externes Netzwerk über einen einzelnen Netzwerkadapter konkurrieren.

Da die Kapazität eines Netzwerkadapters begrenzt ist, wird der Netzwerkdurchsatz der einzelnen Arbeitsauslastungen nicht deterministisch, wenn diese Kapazität durch die Summe der Arbeitsauslastungen überschritten wird. Mit der minimalen Bandbreite können Sie definieren, wie die Bandbreite unter den konkurrierenden Anwendungen aufgeteilt wird.

Angenommen, Speicher, Livemigration und Cluster müssen sich eine 10 GB-NIC auf einem Computer teilen, auf dem die Hyper-V-Serverrolle ausgeführt wird. Wenn Sie Speicher, Livemigration und Cluster jeweils eine Gewichtung von 50, 30 und 20 zuweisen, erhalten diese bei Überlastung der NIC den entsprechenden Anteil der Bandbreite.

Sowohl mit der minimalen als auch mit der maximalen Bandbreite können Sie einen vorhersagbaren Netzwerkdurchsatz für die einzelnen Arbeitsauslastungen erzwingen. Der Hauptunterschied zwischen beiden aus Sicht des Administrators ist die Art, wie sie Netzwerkressourcen verwenden.

Netzwerkressourcenverwendung

Wenn die maximale Bandbreite für eine Arbeitsauslastung festgelegt ist, kann die Arbeitsauslastung die Obergrenze nie überschreiten, auch wenn keine anderen Arbeitsauslastungen im System die Netzwerkbandbreite verwenden. Wenn die minimale Bandbreite für eine Arbeitsauslastung festgelegt ist, kann die Arbeitsauslastung so viel Bandbreite wie möglich verwenden, bis eine Überlastung des Netzwerks auftritt. Verwenden wir das vorherige Beispiel: Wenn keine Livemigration durchgeführt wird, können sowohl die Speicher- als auch die Clusterarbeitsauslastung ihren vordefinierten Anteil der Netzwerkbandbreite überschreiten.

In Abhängigkeit von den Anforderungen eines bestimmten Szenarios können Sie die maximale Bandbreite, die minimale Bandbreite oder beides aktivieren. Um zu verhindern, dass ein gehosteter virtueller Computer unerwartet die gesamte verfügbare Internetbandbreite verwendet, kann ein öffentlicher Hoster beispielsweise eine QoS-Einstellung für die maximale Bandbreite für den virtuellen Computer festlegen. Umgekehrt können Sie zur Maximierung der Bandbreitennutzung auf einem beliebigen Computer im Datencenter, auf dem die Hyper-V-Serverrolle ausgeführt wird, eine Einstellung für die minimale Bandbreite für den Server festlegen.

SMB Direct (Server Message Block Direct) und DCB (Data Center Bridging)

Die minimale und die maximale Bandbreite werden durch den QoS-Paketplaner erzwungen. Beide funktionieren gut mit Datenverkehr, der durch den Windows Server-Netzwerkstapel fließt.

Es gibt jedoch Netzwerkdatenverkehr, der den Netzwerkstapel umgeht. Das wichtigste Beispiel hierfür ist SMB Direct (Server Message Block Direct), ein Windows Server 2012-Feature, das auf RDMA (Remote Direct Memory Access, Remotezugriff auf den direkten Speicher) basiert. SMB Direct lagert den SMB-Datenverkehr direkt an eine RDMA-fähige NIC aus, um die Latenz und die Anzahl der CPU-Zyklen zu verringern, die für den Netzwerkbetrieb aufgewendet werden. Da SMB Direct an der NIC-Hardware weiterhin mit anderem Netzwerkdatenverkehr um die Bandbreite konkurriert, können sich die Datenflüsse gegenseitig beeinträchtigen oder sogar blockieren, wenn sie nicht kontrolliert werden.

Dieses Problem kann mithilfe von DCB (Data Center Bridging) behoben werden. Von einigen NIC-Anbietern wird DCB in Netzwerkadaptern implementiert. DCB funktioniert auf ähnliche Weise wie die minimale Bandbreite: Jeder Datenverkehrsklasse – ob ausgelagert oder nicht – wird eine bestimmte Bandbreite zugeordnet. Bei Überlastung des Netzwerks erhält jede Klasse ihren Anteil; andernfalls erhält jede Klasse so viel Bandbreite, wie verfügbar ist.

Klassifizierung und Tagging

Bevor die Bandbreite für eine Arbeitsauslastung verwaltet wird, muss die Arbeitsauslastung klassifiziert oder herausgefiltert werden, damit der QoS-Paketplaner oder eine DCB-fähige NIC darauf reagieren kann. Windows verfügt über eine anspruchsvolle Funktion zur Klassifizierung von Datenverkehr. Die Klassifizierung kann auf 5-Tupel, Benutzertyp oder URI basieren.Windows Server 2012 vereinfacht die Verwaltungsaufgabe, sodass Sie integrierte Filter in Windows PowerShell aufrufen können, um einige der häufigsten Arbeitsauslastungen zu klassifizieren. In der folgenden Tabelle werden diese integrierten Filter aufgeführt:

Arbeitsauslastung

Integrierter Filter (Parameter) in Windows PowerShell

Filterimplementierung

iSCSI

-iSCSI

Übereinstimmung mit TCP- oder UDP-Port 3260

NFS

-NFS

Übereinstimmung mit TCP- oder UDP-Port 2049

SMB

-SMB

Übereinstimmung mit TCP- oder UDP-Port 445

Livemigration

-LiveMigration

Übereinstimmung mit TCP-Port 6600

SMB Direct

-NetDirect<Port>

Übereinstimmung mit dem angegebenen Port

Platzhalter

-Default

Datenverkehr, der nicht anderweitig klassifiziert ist

Hinweis

  • SMB Direct lagert SMB-Datenverkehr an eine NIC aus. Wenn „-NetDirect<Port>“ in einer QoS-Richtlinie angegeben ist, sendet Windows die Anweisung an eine beliebige NIC, die SMB Direct unterstützt. Die kompatiblen NICs filtern dann den Netzwerkdatenverkehrsfluss auf Basis des angegebenen Ports heraus.

  • Mit dem Platzhalter können Sie den gesamten Datenverkehr erfassen, der nicht herausgefiltert oder klassifiziert wurde. Beispielsweise können Sie den Platzhalter verwenden, um eine Datenverkehrsklasse für die Verwaltung auf einem Computer zu erstellen, auf dem die Hyper-V-Serverrolle ausgeführt wird.

Die Bandbreitenverwaltung ist nicht die einzige Aktion, die Sie in einer QoS-Richtlinie angeben können. Sie können den Datenverkehr beispielsweise priorisieren und kennzeichnen, sodass QoS innerhalb eines Datencenters durchgängig erzwungen wird.

Frühere Versionen von Windows unterstützen das Prioritätstagging im IP-Header eines Netzwerkpakets. Die Prioritätsbits werden als DSCP (Differentiation Service Code Point) bezeichnet.Windows Server 2012 unterstützt nun auch das 802.1p-Tagging. 802.1p ist ein 3-Bit-Prioritätswert im Schicht-2-Ethernet-Frame. Daher gilt er für Nicht-IP-Pakete, z. B. RDMA über Ethernet.

Prioritätsbasierte Flusssteuerung

Arbeitsauslastungen wie beispielsweise RDMA erfordern einen verlustfreien Transport. Wenn RDMA direkt auf Ethernet aufsetzt, was als RoCE (RDMA over Converged Ethernet) bezeichnet wird, muss der Ethernet-Transport verlustfrei sein. Dies kann normalerweise durch Flusssteuerung auf Verbindungsebene, die auf dem 802.3-PAUSE-Frame basiert, gelöst werden. Die Flusssteuerung auf Verbindungsebene kann jedoch Probleme verursachen, z. B. eine Head-of-Line-Blockierung.

Dieses Problem wird durch PCF (Priority based Flow Control, prioritätsbasierte Flusssteuerung) behoben. Hierbei handelt es sich um einen von der DCB-Arbeitsgruppe des IEEE (Institute of Electrical and Electronics Engineers) definierten Standard.Windows Server 2012 ermöglicht Ihnen das Aktivieren von PCF, sofern dies von einer NIC unterstützt wird. Wenn PCF auf beiden Seiten einer Ethernetverbindung für RoCE aktiviert ist, wird nur die für RoCE vorgesehene virtuelle Verbindung, die durch einen Prioritätswert gekennzeichnet ist, verlustfrei. Bei anderen Arbeitsauslastungen auf derselben physischen Verbindung kommt es jedoch nicht zu einer Head-of-Line-Blockierung.

Richtlinienbasierter QoS und Hyper-V-QoS

Netzwerkadministratoren bietet die QoS in Windows Server® 2012 die Möglichkeit, den Netzwerkdatenverkehr im physischen Netzwerk und im virtuellen Netzwerk zu verwalten. Die richtlinienbasierte QoS dient zum Verwalten des Datenverkehrs in physischen Netzwerken, und eine neue Funktion in QoS, die als „Hyper-V-QoS“ bezeichnet wird, ermöglicht Ihnen das Verwalten des Datenverkehrs in virtuellen Netzwerken.

„Richtlinienbasierter QoS (Quality of Service)“

Mit richtlinienbasiertem QoS können Sie den Netzwerkdatenverkehr in physischen Netzwerken verwalten. Mit dem richtlinienbasierten QoS kann die Netzwerkbandbreite auf Basis von Anwendungstypen, Benutzern und Computern gesteuert werden. Sie können mit dem richtlinienbasierten QoS den Datenverkehr verwalten, um die Bandbreitenkosten zu kontrollieren, Servicelevels mit Bandbreitenanbietern oder Unternehmensabteilungen auszuhandeln und eine verbesserte Endbenutzererfahrung anzubieten. Da richtlinienbasierter QoS in die Gruppenrichtlinie integriert ist, ist er Bestandteil Ihrer vorhandenen Verwaltungsinfrastruktur und kann daher als kostengünstige Lösung implementiert werden.

Richtlinienbasierter QoS bietet die folgenden Möglichkeiten:

  • Erzwingen einer minimalen Bandbreite für einen Datenverkehrsfluss, der durch einen 5-Tupel-Datenverkehrsfilter identifiziert wird.

    Hinweis

    „5-Tupel“ ist ein Begriff aus der Computernetzwerktechnik, der einen Satz von fünf verschiedenen Werten beschreibt, aus denen eine TCP/IP (Transmission Control Protocol/Internet Protocol)-Verbindung besteht.

  • Konfigurieren und Abfragen oder Anzeigen von QoS-Richtlinien, die Minimal- und Maximalbandbreiten und den 802.1p-Standard oder eine Differentiated Services Code Point (DSCP)-Kennzeichnung für gefilterte Pakete über WMI und PowerShell erzwingen.

    Hinweis

    • DSCP ist ein Feld in einem IPv4- oder IPv6-Header in Computernetzwerken.

    • 802.1p ist eine IEEE-Spezifikation (Institute of Electrical and Electronics Engineers), mit der Schicht-2-Switches eine Datenverkehrspriorisierung und eine dynamische Multicastfilterung durchführen können.

  • Verwenden von Gruppenrichtlinien-Editoren, um eine eQoS (Extended Quality of Service)-Richtlinie zum Kennzeichnen von Paketen mit einem 802.1p-Wert zu konfigurieren.

  • Konfigurieren von lokalen QoS-Richtlinien auf Computern, die keiner Domäne angehören.

Weitere Informationen finden Sie unter Richtlinienbasierter QoS (Quality of Service).

Hyper-V QoS

Mit Hyper-V-QoS können Sie den Netzwerkdatenverkehr in virtuellen Netzwerken verwalten. In Windows Server® 2012 umfasst QoS neue Features für die Bandbreitenverwaltung, mit denen Cloudhostinganbieter und Unternehmen Dienste bereitstellen können, die für virtuelle Computer auf einem Server, auf dem die Hyper-V-Serverrolle ausgeführt wird, eine vorhersagbare Netzwerkleistung ermöglichen. Hyper-V-QoS unterstützt die Verwaltung von zulässigen Ober- und Untergrenzen der Bandbreite, die im Allgemeinen als maximale und minimale Bandbreite bezeichnet werden.

In einer gehosteten Umgebung können Sie mit Hyper-V-QoS bestimmte Leistungsebenen basierend auf den Vereinbarungen zum Servicelevel (Service Level Agreements, SLAs) garantieren, die Sie mit Ihren Kunden getroffen haben. Durch Hyper-V-QoS kann sichergestellt werden, dass keiner Ihrer Kunden durch andere Kunden in der gemeinsamen Infrastruktur, die Computing-, Speicher- und Netzwerkressourcen umfassen kann, beeinträchtigt oder gefährdet wird.

Darüber hinaus können auch Unternehmensnetzwerke ähnliche Funktionen erfordern. Wenn Sie Hyper-V-QoS in Ihrem Unternehmen verwenden, können Sie mehrere VM-basierte Anwendungsserver auf einem Hostserver mit Hyper-V ausführen und sich darauf verlassen, dass jeder Anwendungsserver eine vorhersagbare Leistung erbringt.

Hyper-V QoS bietet die folgenden Möglichkeiten:

  • Erzwingen Sie die minimale und maximale Bandbreite für einen Datenverkehrsfluss, der durch eine virtuelle Hyper-V-Switchportnummer identifiziert wird.

  • Konfigurieren Sie die minimale und maximale Bandbreite pro virtuellem Hyper-V-Switchport mit PowerShell-Cmdlets oder Windows Management Instrumentation (WMI).

  • Konfigurieren Sie mehrere virtuelle Netzwerkkarten in Hyper-V, und geben Sie QoS einzeln auf jeder virtuellen Netzwerkkarte an.

Zudem kann Windows Server 2012 Hyper-V-QoS DCB (Data Center Bridging)-kompatible Hardware verwenden, um mehrere Arten von Netzwerkdatenverkehr mit einem garantiertem Servicelevel für jeden Datenverkehrstyp auf einem einzelnen Netzwerkadapter zusammenzuführen. Mit Windows PowerShell können Sie diese neuen Features manuell konfigurieren oder die Verwaltung einer Gruppe von Servern mithilfe eines Skripts automatisieren – unabhängig davon, ob die Server einer Domäne angehören.