Vue d’ensemble de la qualité de service (QoS)

 

S'applique à: Windows Server 2012

La qualité de service (QoS) est un ensemble de technologies qui permet de gérer de manière économique le trafic réseau et d’améliorer l’expérience utilisateur dans les environnements d’entreprise, les petites entreprises et même les environnements de réseau domestique.

Ce document fournit une introduction à la Qualité de service (QoS) dans Windows Server® 2012.

Fonctionnalités de la qualité de service

Les technologies de qualité de service permettent de répondre aux impératifs de service d’une charge de travail ou d’une application en mesurant la bande passante réseau, en détectant les changements de conditions réseau (par exemple, surcharge ou disponibilité de la bande passante) et en hiérarchisant (ou en limitant) le trafic réseau. À titre d’exemple, vous pouvez recourir à la qualité de service (QoS) pour hiérarchiser le trafic pour des applications sensibles à la latence (notamment des applications vocales et vidéo en continu) et contrôler l’impact du trafic insensible à la latence (notamment les transferts de données en bloc).

La qualité de service propose les fonctionnalités suivantes :

  • Gestion de la bande passante

  • Classification et marquage

  • Contrôle de flux basé sur la priorité

  • QoS basée sur la stratégie et QoS Hyper-V

Ces fonctionnalités sont détaillées dans les sections suivantes.

Notes

La qualité de service est incluse dans toutes les versions de Windows Server 2012 et Windows® 8. Elle prend en charge toutes les API de QoS et les fonctionnalités fournies par QoS dans Windows Server® 2008 R2 et Windows® 7. QoS n’est pas disponible sous Windows® RT.

Gestion de la bande passante

Dans les versions précédentes de QoS, comme avec QoS sous Windows Server 2012, Bande passante maximale est une fonctionnalité qui définit un plafond absolu (un taux de limitation) pour une charge de travail. Désormais, Windows Server 2012 dispose également de la fonctionnalité Bande passante minimale.

La fonction Bande passante minimale fournit un niveau de service spécifique pour une charge de travail en cas de surcharge du réseau tout en autorisant une utilisation plus importante de la bande passante par cette charge de travail en cas d’absence de surcharge du réseau. Le réseau peut être surchargé sur un ordinateur lorsque plusieurs charges de travail sont en concurrence pour l’accès à un réseau externe via une carte réseau.

En raison de la limitation de la capacité de toutes les cartes réseau, lorsque la somme des charges de travail dépasse cette capacité, le débit du réseau de chaque charge de travail devient non déterministe. Avec la fonction Bande passante minimale, vous pouvez définir la manière dont la bande passante est partagée par les applications concurrentes.

Par exemple, les charges de travail Stockage, Migration dynamique et Cluster peuvent se partager une carte réseau de 10 Go sur un ordinateur qui exécute le rôle serveur Hyper-V. Si vous attribuez un pourcentage respectif de 50, 30 et 20 % aux charges Stockage, Migration dynamique et Cluster, celles-ci reçoivent les partages correspondants de la bande passante si la carte réseau est saturée.

Les fonctions Bande passante minimale et Bande passante maximale permettent d’appliquer le débit de réseau prévisible pour chaque charge de travail. La principale différence entre ces deux fonctions, du point de vue de l’administrateur, est la manière dont elles utilisent les ressources réseau.

Utilisation des ressources réseau

Lorsque la bande passante maximale est définie pour une charge de travail, cette charge ne peut en aucun cas dépasser le plafond même si aucune autre charge de travail du système n’utilise la bande passante. Lorsque la bande passante minimale est définie pour une charge de travail, cette charge peut utiliser autant de bande passante que possible, tant que le réseau n’est pas saturé. D’après l’exemple précédent, si la charge de travail Migration dynamique n’est pas activée, les charges Stockage et Cluster peuvent dépasser leurs pourcentages de partage prédéfinis de la bande passante.

Vous pouvez choisir d’activer la bande passante maximale, la bande passante minimale ou les deux en fonction des exigences d’un scénario spécifique. Par exemple, pour empêcher un ordinateur virtuel hébergé d’utiliser de manière inattendue toute la bande passante Internet disponible, un hébergeur public peut imposer un paramètre de bande passante maximale de QoS sur cet ordinateur virtuel. À l’inverse, pour optimiser l’utilisation de la bande passante sur n’importe quel ordinateur exécutant le rôle serveur Hyper-V dans le centre de données, vous pouvez imposer un paramètre de bande passante minimale sur le serveur.

Server Message Block Direct (SMB Direct) et Data Center Bridging (DCB)

Les fonctions Bande passante maximale et Bande passante minimale sont appliquées par le planificateur de paquets QoS. Elles fonctionnent correctement avec le trafic qui transite par la pile de mise en réseau de Windows Server.

Mais il existe un trafic réseau qui contourne la pile réseau. L’exemple le plus notable est Server Message Block Direct (SMB Direct), une fonctionnalité Windows Server 2012 qui s’appuie sur les accès direct à la mémoire à distance (RDMA). SMB Direct décharge le trafic SMB directement vers une carte réseau prenant en charge la fonctionnalité RDMA afin de réduire la latence et le nombre de cycles du processeur consacrés à la mise en réseau. SMB Direct étant toujours en concurrence pour la bande passante avec le trafic réseau sur le matériel de carte réseau, l’un peut avoir un impact sur l’autre ou même le priver de bande s’ils ne sont pas activés.

Pour résoudre ce problème, vous pouvez utiliser Data Center Bridging (DCB). DCB est exécuté par certains fournisseurs de cartes réseau. DCB fonctionne de la même façon que la bande passante minimale : chaque classe de trafic, qu’elle soit déchargée ou non, se voit attribuer un pourcentage de bande passante. En cas de surcharge du réseau, chaque classe obtient sa part, sinon, chaque classe obtient autant de bande passante disponible que possible.

Classification et marquage

Avant de pouvoir gérer la bande passante pour une charge de travail, cette charge doit être classée ou filtrée afin que le planificateur de paquets QoS ou une carte réseau compatible DCB puisse agir dessus. Windows dispose de capacités de classification de trafic sophistiquées. La classification peut être basée sur 5 tuples, un type d’utilisateur ou un URI.Windows Server 2012 simplifie la tâche de gestion afin que vous puissiez appeler les filtres intégrés dans Windows PowerShell pour classer les charges de travail les plus courantes. Le tableau ci-dessous répertorie ces filtres intégrés.

Charge de travail

Filtre intégré (paramètre) dans Windows PowerShell

Implémentation du filtre

iSCSI

-iSCSI

Correspond au port TCP ou UDP 3260

NFS

-NFS

Correspond au port TCP ou UDP 2049

SMB

-SMB

Correspond au port TCP ou UDP 445

Migration dynamique

-Migration dynamique

Correspond au port TCP 6600

SMB Direct

-NetDirect<port>

Correspond au port spécifié

Caractère générique

-Par défaut

Tout le trafic qui ne correspond à aucune classe

Notes

  • SMB Direct décharge le trafic SMB vers une carte réseau. Lorsque « -NetDirect <port> » est spécifié dans une stratégie de QoS, Windows envoie l’instruction à une carte réseau compatible avec SMB Direct. Les cartes réseau compatibles filtrent ensuite le trafic réseau selon le port spécifié.

  • La charge de travail Caractère générique permet de capturer le trafic qui n’est pas filtré ou classé. Par exemple, vous pouvez utiliser ce filtre pour créer une classe de trafic pour la gestion sur un ordinateur qui exécute le rôle de serveur Hyper-V.

Gestion de la bande passante n’est pas la seule action que vous pouvez spécifier dans une stratégie de QoS. Par exemple, vous pouvez hiérarchiser et marquer le trafic afin que QoS soit appliqué de bout en bout dans un centre de données.

Les versions précédentes de Windows prennent en charge le marquage prioritaire dans l’en-tête IP d’un paquet réseau. Les bits de priorité sont connus comme valeur de DSCP (Differentiation Service Code Point).Windows Server 2012 prend également en charge le marquage 802.1p. 802.1p est une valeur de priorité de 3 bits dans la trame Ethernet de couche 2. Par conséquent, elle s’applique aux paquets non IP, comme le RDMA sur Ethernet.

Contrôle de flux basé sur la priorité

Les charges de travail, telles que le RDMA, nécessitent un transport sans perte. Si le RDMA est directement basé sur Ethernet (ROCE, RDMA over Converged Ethernet), le transport Ethernet doit être sans perte. En règle générale, la solution est un contrôle de flux au niveau d’une liaison, qui repose sur la trame de pause 802.3. Mais le contrôle de flux au niveau d’une liaison provoque des problèmes tels que le blocage de l’en-tête de ligne.

Ce problème est résolu par le contrôle de flux prioritaire (PFC), qui est une norme définie par le groupe de travail DCB Institute of Electrical and Electronics Engineers (IEEE).Windows Server 2012 permet d’activer le PFC tant qu’il est pris en charge par une carte réseau. Lorsque le PFC est activé pour le ROCE aux deux extrémités d’une liaison Ethernet, seul le lien virtuel désigné pour le ROCE et indiqué par une valeur de priorité devient sans perte. Les autres charges de travail sur la même liaison physique ne sont pas affectées par le blocage de l’en-tête de ligne.

QoS basée sur la stratégie et QoS Hyper-V

Pour les administrateurs réseau, QoS dans Windows Server® 2012 a pour but d’aider à gérer le trafic réseau sur le réseau physique et sur le réseau virtuel. La QoS basée sur la stratégie est conçue pour gérer le trafic sur le réseau physique. Et une nouvelle fonctionnalité de QoS, appelée QoS Hyper-V, permet de gérer le trafic sur le réseau virtuel.

Qualité de service (QoS)

Vous pouvez utiliser la QoS basée sur la stratégie pour gérer le trafic sur le réseau physique. La QoS basée sur la stratégie vous permet de définir le contrôle de la bande passante réseau en fonction du type d’application, des utilisateurs et des ordinateurs. La QoS basée sur la stratégie peut vous aider à maîtriser les coûts de bande passante, négocier des niveaux de service avec des fournisseurs de bande passante ou des services commerciaux et garantir une expérience optimale aux utilisateurs finaux. La QoS basée sur la stratégie étant intégrée à la stratégie de groupe, elle fait partie de votre infrastructure de gestion existante et offre donc une solution rentable à mettre en place.

La qualité de service (QoS) basée sur la stratégie permet d’accomplir les tâches suivantes :

  • Garantir une bande passante minimale pour un flux de trafic identifié par un filtre de trafic de type « 5-tuples ».

    Notes

    5-tuples est un terme utilisé dans le domaine des réseaux informatiques pour décrire un ensemble de cinq valeurs distinctes qui constituent une connexion TCP/IP (Transmission Control Protocol/Internet Protocol).

  • Configurer et interroger ou afficher des stratégies QoS appliquant une bande passante minimale et maximale et une valeur 802.1p ou DSCP (Differentiated Services Code Point) dans les paquets filtrés, via les technologies WMI et PowerShell.

    Notes

    • DSCP désigne un champ dans un en-tête IPv4 ou IPv6 sur les réseaux informatiques.

    • 802.1p est une norme IEEE (Institute of Electrical and Electronics Engineers) qui permet aux commutateurs de couche 2 de gérer le trafic selon des priorités et de procéder à un filtrage dynamique de la multidiffusion.

  • Utiliser les éditeurs de la stratégie de groupe pour configurer une stratégie eQoS (Extended Quality of Service, extension du service de qualité) pour marquer les paquets avec une valeur 802.1p.

  • Configurer des stratégies QoS locales sur des ordinateurs qui n’appartiennent pas à un domaine.

Pour plus d'informations, voir Qualité de service (QoS) basée sur la stratégie.

QoS Hyper-V

Vous pouvez utiliser la QoS Hyper-V pour gérer le trafic sur le réseau virtuel. Sous Windows Server® 2012, QoS contient de nouvelles fonctionnalités de gestion de la bande passante qui permettent aux entreprises et fournisseurs d’hébergement cloud de fournir des services qui offrent des performances réseau prévisibles aux ordinateurs virtuels sur un serveur exécutant le rôle de serveur Hyper-V. La QoS Hyper-V prend en charge la gestion des limites de bande passante supérieures et inférieures (on parle plus souvent de bande passante maximale et minimale).

Dans les environnements hébergés, QoS Hyper-V permet de garantir des niveaux de performances spécifiques basés sur les contrats de niveau de service (SLA) que vous avez signés avec vos clients. La fonctionnalité de qualité de service (QoS) Hyper-V garantit que les activités de vos clients ne sont pas affectées ou compromises par celles d’autres clients sur l’infrastructure partagée, notamment les ressources de traitement, de stockage et du réseau.

En outre, les réseaux d’entreprise peuvent nécessiter une fonctionnalité similaire. En utilisant QoS Hyper-V dans votre entreprise, vous pouvez exécuter plusieurs serveurs d’application basés sur un ordinateur virtuel sur un serveur hôte exécutant Hyper-V tout en étant certain que chaque serveur d’applications offre des performances prévisibles.

La qualité de service (QoS) Hyper-V permet d’accomplir les tâches suivantes :

  • Permet d'appliquer une bande passante minimale et une bande passante maximale à un flux de trafic, ce qui est identifié par un numéro de port de commutateur virtuel Hyper-V.

  • Permet de configurer la bande passante minimale et la bande passante maximale par port de commutateur virtuel Hyper-V à l'aide des applets de commande PowerShell ou Windows Management Instrumentation (WMI).

  • Permet de configurer plusieurs cartes réseau virtuelles dans Hyper-V et de définir la qualité de service individuellement sur chaque carte réseau virtuelle.

La QoS Hyper-V Windows Server 2012 peut également utiliser le matériel compatible avec Data Center Bridging (DCB) afin de converger plusieurs types de trafic réseau sur une même carte réseau avec un niveau de service garanti pour chaque type de trafic. Avec Windows PowerShell, vous pouvez configurer ces nouvelles fonctionnalités manuellement ou activer l’automatisation dans un script afin de gérer un groupe de serveurs, qu’ils appartiennent ou non à un domaine.