Markieren Sie das Kontrollkästchen Englisch, um die englische Version dieses Artikels anzuzeigen. Sie können den englischen Text auch in einem Popup-Fenster einblenden, indem Sie den Mauszeiger über den Text bewegen.
Übersetzung
Englisch

Allgemeine QoS-Konfigurationen

 

Betrifft: Windows Server 2012

Wenn Sie Quality of Service (QoS) konfigurieren, müssen Sie die folgenden Variablen berücksichtigen.

  • Die Anzahl der auf dem Server installierten Netzwerkkarten (NICs).

  • Ob jede Netzwerkkarte für eine bestimmte Arbeitslast dediziert ist oder von mehreren Arbeitslasten gemeinsam genutzt wird.

  • Ob die NICs über das NIC-Teamvorgang-Feature zusammengeschlossen sind.

  • Die Anzahl der NIC-Teams, die Sie auf dem Server konfigurieren.

  • Ob Sie Abladungstechnologien wie Single Root Input-Output Vortualization (SR-IOV) oder Remote Direct Memory Access (RDMA) verwenden möchten.

In den folgenden Abschnitten werden einige gebräuchliche Serverkonfigurationen untersucht, und es wird veranschaulicht, an welchen Stellen QoS erzwungen werden kann.

Diese Konfiguration priorisiert die Trennung des Hostdatenverkehrs vom Gastdatenverkehr.

System_CAPS_noteHinweis

In diesem Dokument bezieht sich der Begriff Verwaltungsbetriebssystem auf das Betriebssystem des Computers, auf dem Hyper-V ausgeführt wird.

Die folgende Abbildung zeigt diese Konfiguration.

2 NICs without NIC Teaming

Mit dieser Konfiguration können Sie alle QoS-Features anwenden, einschließlich Bandbreitenverwaltung, Klassifizierung und Tagging und prioritätsbasierter Flusssteuerung, sofern das Feature durch die NIC unterstützt wird.

Der folgende Code, der in der Windows PowerShell-Umgebung des Verwaltungsbetriebssystems ausgeführt wird, enthält ein Beispiel zum Erstellen dieser Konfiguration mithilfe von Windows PowerShell. In diesem Codebeispiel sind Zeilen, die mit einer Zahl oder einem Doppelkreuzzeichen (#) beginnen, Bemerkungen zur Erläuterung des Codes in der nachfolgenden Zeile.

# Use the inbox filter for Live Migration New-NetQosPolicy “Live Migration” –LiveMigration –MinBandwidthWeight 30 –Priority 5 # Use the inbox filter for SMB New-NetQosPolicy “SMB” –SMB –MinBandwidthWeight 50 –Priority 3 # Create a policy for the cluster heartbeat traffic sent on port 3343 New-NetQosPolicy “Cluster”-IPDstPort 3343 –MinBandwidthWeight 10 –Priority 6 # Use the inbox filter to capture all the rest of the traffic. New-NetQosPolicy “Management” –Default –MinBandwidthWeight 10 # Note that the management traffic is deliberately configured not to be # tagged.

Sie können auch die Bandbreitenverwaltung auf dem virtuellen Hyper-V-Switch für jeden einzelnen virtuellen Netzwerkadapter aktivieren. Der folgende Code stellt ein Beispiel für die Erstellung dieser Konfiguration dar.

# Create a Hyper-V Virtual Switch that supports Minimum Bandwidth by weight New-VMSwitch “10GbE switch” –NetAdapterName “XYZ’s 10GbE” –MinimumBandwidthMode Weight –AllowManagementOS $false # Assign an even weight to all the VMs here as well as a hard cap at 1Gbps Set-VMNetworkAdapter –VMName * -MinimumBandwidthWeight 1 –MaximumBandwidth 1000000000

Wenn ein virtueller Computer vertrauenswürdig ist – z. B. in einer Unternehmensumgebung, in der Sie dem Administrator des virtuellen Computers vertrauen können –, können Sie QoS-Klassifizierung und -Tagging optional aus dem virtuellen Computer heraus aktivieren. Der folgende Code, der in der Windows PowerShell-Umgebung auf einem virtuellen Computer ausgeführt wird, zeigt ein Beispiel für die Erstellung dieser Konfiguration.

# Create a QoS policy to tag (in the IP header) a critical application # running on this VM New-NetQosPolicy “Line of Business app” –ApplicationName “%ProgramFiles%\crm.exe” –DSCP 46

Diese Konfiguration priorisiert hohe Verfügbarkeit für alle Arbeitslasten auf einem Computer, auf dem die Hyper-V-Serverrolle ausgeführt wird.

2 NICs with NIC Teaming

Sie können die Bandbreitenverwaltung auf dem virtuellen Hyper-V-Switch sowohl für die virtuellen Computer als auch für die Arbeitslasten im Verwaltungsbetriebssystem aktivieren. Die folgenden Beispielbefehle werden in der Windows PowerShell-Umgebung im Verwaltungsbetriebssystem ausgeführt.

# Create a NIC team that consists of two 10GbE NICs New-NetLbfoTeam “2x10GbE Team” –TeamMembers “10GbE NIC1”,”10GbE NIC2” –TeamNicName “2x10GbE” # Create a Hyper-V Virtual Switch that binds to the NIC team New-VMSwitch “20GbE switch” –NetAdapterName “2x10GbE” –MinimumBandwidthMode Weight –AllowManagementOS $false # Create a virtual NIC in the management operating system for SMB (storage) Add-VMNetworkAdapter –ManagementOS –Name “SMB” –SwitchName “20GbE switch” # Create a virtual NIC in the management operating system for Live Migration Add-VMNetworkAdapter –ManagementOS –Name “LM” –SwitchName “20GbE switch” # Create a virtual NIC in the management operating system for Cluster Add-VMNetworkAdapter –ManagementOS –Name “Cluster” –SwitchName “20GbE switch” # Create a virtual NIC in the management operating system for Management Add-VMNetworkAdapter –ManagementOS –Name “Management” –SwitchName “20GbE switch” # Assign a weight to SMB Set-VMNetworkAdapter –ManagementOS –Name “SMB” –MinimumBandwidthWeight 40 # Assign a weight to Live Migration Set-VMNetworkAdapter –ManagementOS –Name “LM” –MinimumBandwidthWeight 20 # Assign a weight to Cluster Set-VMNetworkAdapter –ManagementOS –Name “Cluster” –MinimumBandwidthWeight 5 # Assign a weight to Management Set-VMNetworkAdapter –ManagementOS –Name “Management” –MinimumBandwidthWeight 5 # Assign a weight to each VM Set-VMNetworkAdapter –VMName * -MinimumBandwidthWeight 1 # Usually the workloads in the management operating system are put in different IP subnets # and VLANs, to assign a VLAN to a virtual network adapter in the Management # OS Set-VMNetworkAdapterVlan –ManagementOS –VMNetworkAdapterName SMB –Access –VlanId 100 Set-VMNetworkAdapterVlan –ManagementOS –VMNetworkAdapterName LM –Access –VlanId 200 Set-VMNetworkAdapterVlan –ManagementOS –VMNetworkAdapterName Cluster –Access –VlanId 300 Set-VMNetworkAdapterVlan –ManagementOS –VMNetworkAdapterName Management –Access –VlanId 400

Optional können Sie für den Datenverkehr aus dem Verwaltungsbetriebssystem heraus und in einer vertrauenswürdigen Umgebung aus dem virtuellen Computer heraus Klassifizierung und Tagging durchführen.

# Use the inbox filter for Live Migration New-NetQosPolicy “Live Migration” –LiveMigration –Priority 5 # Use the inbox filter for SMB New-NetQosPolicy “SMB” –SMB –Priority 3 # Create a policy for the cluster heartbeat traffic sent on port 3343 New-NetQosPolicy “Cluster”-IPDstPort 3343 –Priority 6 # Alternatively, if these workloads are in different IP subnets they can # be classified based on their IP subnet address # Assume Live Migration is on 10.1.0.0/16 New-NetQosPolicy “Live Migration” –IPDstPrefix 10.1.0.0/16 –Priority 5 # Assume SMB is on 10.2.0.0/16 New-NetQosPolicy “SMB” –IPDstPrefix 10.2.0.0/16 –Priority 3 # Assume Cluster is on 10.3.0.0/16 New-NetQosPolicy “Cluster”-IPDssPrefix 10.3.0.0/16 –Priority 6 # Note that no explicit policy is created for the Management traffic, if it # doesn’t require to be tagged.

# Enable priority tagged traffic to go through the Hyper-V Virtual Switch Set-VMNetworkAdapter –ManagementOS –IeeePriorityTag On # Note that the name of the virtual network adapter in the management operating system # is deliberately omitted in the above command so that the configuration applies # to all virtual network adapters in the management operating system # Also note that if workloads are tagged in the IP header like the example # shown in “ REF _Ref328648339 \h 2 NICs without NIC Teaming,” no additional configuration is required # to let the Hyper-V Virtual Switch pass such DSCP tagged traffic.

Diese Konfiguration bietet eine Trennung zwischen Host- und Gastdatenverkehr sowie hohe Verfügbarkeit für alle Arbeitslasten. In dieser Konfiguration wird die erforderliche Anzahl von NICs auf vier verdoppelt, es muss sich jedoch nicht bei allen um 10 GbE-NICs handeln. Wenn ein Server beispielsweise eine 10 GbE-NIC für zwei Schnittstellen und zwei 1 GbE-LOM-Schnittstellen aufweist, können Sie die beiden 10 GbE-NICs für das Verwaltungsbetriebssystem und die beiden 1 GbE-LOM-Schnittstellen für die virtuellen Computer zusammenschließen.

4 NICs in two NIC teams

Bei dieser Konfiguration können Sie dieselben Windows PowerShell-Befehle wie im Abschnitt Zwei NICs ohne NIC-Teamvorgang verwenden.

Diese Konfiguration hebt die Verwendung von RDMA hervor. Um andere Arbeitslasten wie Livemigration, Cluster oder Verwaltung auf den gleichen RDMA-NICs zusammenzuführen, müssen die NICs auch Data Center Bridging (DCB) unterstützen. Um eine hohe Verfügbarkeit für Speicher bereitzustellen, können Sie Microsoft Multipfad-E/A (MPIO) aktivieren.

4 NICs including two RDMA NICs

Mit dieser Konfiguration können Sie alle QoS-Features, einschließlich Bandbreitenverwaltung, Klassifizierung und Tagging und PFC im Verwaltungsbetriebssystem anwenden.

# Use the inbox filter for Live Migration New-NetQosPolicy “Live Migration” –LiveMigration –Priority 5 # Create a policy for SMB Direct traffic sent on port 445 New-NetQosPolicy “SMB Direct” –NetDirectPort 445 –Priority 3 # Create a policy for the cluster heartbeat traffic sent on port 3343 New-NetQosPolicy “Cluster”-IPDstPort 3343 –Priority 6 # Install DCB on the server Install-WindowsFeature Data-Center-Bridging # Create a traffic class on Data Center Bridging (DCB) NICs for Live Migration New-NetQosTrafficClass “Live Migration” –Priority 5 –Algorithm ETS –Bandwidth 30 # Create a traffic class on DCB NICs for SMB Direct (ROCE) New-NetQosTrafficClass “SMB Direct” –Priority 3 –Algorithm ETS –Bandwidth 50 # Create a traffic class on DCB NICs for Cluster New-NetQosTrafficClass “Cluster” –Priority 6 –Algorithm ETS –Bandwidth 10 # Note that there’s a default traffic class, which owns 100% of the total # bandwidth. As bandwidth is allocated to user-created traffic classes, the # default traffic class owns whatever is left. In this example, it has 10% # left for all the rest of traffic in the management operating system. # Enable PFC for ROCE Enable-NetQosFlowControl –Priority 3 # Note that PFC should be enabled for priority 3 from end (e.g. a computer running # Hyper-V) to end (e.g. a File Server) at both ends (i.e. switch ports and # NICs) of all the links. # Enable DCB settings on the NICs Set-NetQosDcbxSetting –Willing $false Enable-NetAdapterQos “DCB-capable 10Gbe NIC1” Enable-NetAdapterQos “DCB-capable 10Gbe NIC2”

Sie können Bandbreitenverwaltung auf dem virtuellen Hyper-V-Switch für die virtuellen Computer und Klassifizierung und Tagging auf den virtuellen Computern aktivieren, wenn diese vertrauenswürdig sind.

MPIO bietet nur für Speicher Redundanz. Wenn Sie Redundanz für Verwaltung, Livemigration und Cluster bereitstellen möchten, können Sie die vorherige Konfiguration wie folgt leicht ändern.

4 NICs with RDMA alternate configuration

Da die RDMA-NICs nur für den Speicher vorgesehen sind, ist auf dem Verwaltungsbetriebssystem keine Bandbreitenverwaltung erforderlich. Die minimale und maximale Bandbreite werden stattdessen auf den virtuellen Hyper-V-Switch konfiguriert, da Management, Livemigration und Cluster jeweils eigene virtuelle Netzwerkadapter aufweisen, die mit dem Switch verbunden sind.

Sie können Klassifizierung und Tagging sowie PFC auf dem Verwaltungsbetriebssystem aktivieren. Sie können Klassifizierung und Tagging auch aus den virtuellen Computern heraus aktivieren, sofern diese vertrauenswürdig sind.

Anzeigen: