Introducción a la Calidad de servicio (QoS)

 

Se aplica a: Windows Server 2012

QoS es un conjunto de tecnologías que le proporcionan la capacidad para administrar el tráfico de red de manera rentable y mejorar las experiencias de usuario en entornos empresariales, oficinas pequeñas e incluso entornos de red domésticos.

Este documento proporciona información de introducción a la Calidad de servicio (QoS) en Windows Server® 2012.

Características de QoS

Las tecnologías de QoS le permiten cubrir los requisitos de servicios de una carga de trabajo o una aplicación al medir el ancho de banda de red, detectar los cambios en las condiciones de red (por ejemplo, congestión o disponibilidad de ancho de banda) y clasificar por orden de prioridad (o limitar) el tráfico de red. QoS se puede usar, por ejemplo, para clasificar el tráfico por orden de prioridad en aplicaciones dependientes de la latencia (como las aplicaciones de streaming de voz o vídeo) y para controlar el impacto del tráfico dependientes de la latencia (como las transferencias masivas de datos).

QoS ofrece las siguientes características.

  • Administración del ancho de banda

  • Clasificación y etiquetado

  • Control de flujo basado en prioridades

  • QoS basada en directiva y QoS de Hyper-V

En las secciones siguientes se proporciona información acerca de estas características.

Nota

QoS se incluye en todas las versiones de Windows Server 2012 y Windows® 8, y es compatible con todas las API y características de QoS proporcionadas por QoS en Windows Server® 2008 R2 y Windows® 7. QoS no está disponible en Windows® RT.

Administración del ancho de banda

En versiones anteriores de QoS, al igual que con QoS en Windows Server 2012, Ancho de banda máximo es una característica que establece un límite máximo global (porcentaje de limitación) para una carga de trabajo.Windows Server 2012 introduce Ancho de banda mínimo.

Ancho de banda mínimo proporciona un nivel de servicio específico para una carga de trabajo cuando se produce una congestión de red mientras se sigue permitiendo una mayor utilización del ancho de banda por parte de esta carga de trabajo en circunstancias en las que no hay ninguna congestión de la red. Se produce congestión de la red en los sistemas informáticos cuando varias cargas de trabajo compiten para tener acceso a una red externa a través de un adaptador de red.

Dado que la capacidad de cualquier adaptador de red es limitada, cuando la suma de las cargas de trabajo supera esa capacidad, el rendimiento de la red de cada carga de trabajo pasa a ser no determinista. Con Ancho de banda mínimo, puede definir cómo comparten el ancho de banda las aplicaciones competidoras.

Por ejemplo, es posible que Almacenamiento, Migración en vivo y Clúster compartan una NIC de 10 GB en un equipo que esté ejecutando el rol de servidor Hyper-V. Si asigna un peso de 50, 30 y 20 para Almacenamiento, Migración en vivo y Clúster, respectivamente, cuando la NIC está congestionada reciben los recursos compartidos correspondientes del ancho de banda.

Ancho de banda mínimo y Ancho de banda máximo permiten exigir el rendimiento de red predecible para cada carga de trabajo. La diferencia principal entre ellas, desde el punto de vista de un administrador, es cómo usan los recursos de red.

Uso de recursos de red

Cuando se establece Ancho de banda máximo para una carga de trabajo, la carga de trabajo nunca puede superar el límite máximo, incluso si no hay otras cargas de trabajo en el sistema usando el ancho de banda de red. Cuando se establece Ancho de banda mínimo para una carga de trabajo, esta puede usar el ancho de banda máximo (hasta que se produzca una congestión de red). Utilizando el ejemplo anterior, cuando no se está produciendo la Migración en vivo, las cargas de trabajo de Almacenamiento y Clúster pueden superar sus cuotas predefinidas de ancho de banda de red.

Puede habilitar Ancho de banda máximo, Ancho de banda mínimo o ambos según los requisitos de un escenario específico. Por ejemplo, para impedir que una máquina virtual hospedada use inesperadamente todo el ancho de banda de Internet disponible, un proveedor de hospedaje público puede imponer una configuración de ancho de banda máximo de QoS en la máquina virtual. Por el contrario, para maximizar el uso de ancho de banda en cualquier equipo que ejecute el rol de servidor de Hyper-V en el centro de datos, puede imponer un valor de ancho de banda mínimo en el servidor.

Bloque de mensajes de servidor directo (SMB directo) y Protocolo de puente del centro de datos (DCB).

Ancho de banda máximo y Ancho de banda mínimo son aplicado por el Programador de paquetes QoS. Funcionan bien con el tráfico que fluye a través de la pila de red de Windows Server.

Pero hay tráfico de red que omite la pila de red. El ejemplo más notable es Bloque de mensajes de servidor directo (SMB directo), una característica de Windows Server 2012 que se basa en Acceso directo a memoria remota (RDMA). SMB directo descarga el tráfico SMB directamente en una NIC compatible con RDMA para reducir la latencia y el número de ciclos de CPU que se emplean en las redes. Debido a que SMB directo todavía compite por el ancho de banda con otro tráfico de red en el hardware de NIC, uno puede afectar o incluso bloquear al otro si se dejan sin comprobar.

Para resolver este problema, puede usar el Protocolo de puente del centro de datos (DCB). DCB es implementado por algunos proveedores de NIC de los adaptadores de red. DCB funciona de forma similar Ancho de banda mínimo: cada clase de tráfico, independientemente de si se descarga o no, tiene una asignación de ancho de banda; en caso de que se produzca congestión de la red, cada clase obtiene su parte, de lo contrario, cada clase obtiene el ancho de banda que haya disponible.

Clasificación y etiquetado

Antes de que se administre el ancho de banda de una carga de trabajo, la carga de trabajo debe clasificarse o filtrarse para que el programador de paquetes QoS o una NIC compatible con DCB puedan actuar sobre ella. Windows dispone de una sofisticada capacidad de clasificación del tráfico. La clasificación puede basarse en 5 tuplas, el tipo de usuario o el URI.Windows Server 2012 simplifica la tarea de administración para que pueda invocar los filtros integrados en Windows PowerShell para clasificar algunas de las cargas de trabajo más comunes. La tabla siguiente enumera estos filtros integrados.

Carga de trabajo

Filtro integrado (parámetro) en Windows PowerShell

Implementación de filtros

iSCSI

-iSCSI

Coincide con el puerto TCP o UDP 3260

NFS

-NFS

Coincide con el puerto TCP o UDP 2049

SMB

-SMB

Coincide con el puerto TCP o UDP 445

Migración en vivo

-LiveMigration

Coincide con el puerto TCP 6600

SMB directo

-NetDirect<port>

Coincide con el puerto especificado

Carácter comodín

-Valor predeterminado

Tráfico que no esté clasificado de otro modo

Nota

  • SMB directo descarga el tráfico SMB en una NIC. Cuando se especifica "-NetDirect <port>" en una directiva de QoS, Windows envía la instrucción a cualquier NIC compatible con SMB directo; las NIC compatibles filtran a continuación el flujo de tráfico de red basado en el puerto especificado.

  • Carácter comodín permite capturar el tráfico que no se filtra o clasifica. Por ejemplo, puede usar este filtro comodín para crear una clase de tráfico de administración en un equipo que ejecuta el rol de servidor Hyper-V.

Administración de ancho de banda no es la única acción que se puede especificar en una directiva de QoS. Por ejemplo, puede establecer prioridades y etiquetar el tráfico para que QoS se aplique de un extremo a otro de un centro de datos.

Las versiones anteriores de Windows admiten el etiquetado de prioridades en el encabezado IP de un paquete de red. Los bits de prioridad se conocen como Punto de código de servicio de diferenciación (DSCP).Windows Server 2012 agrega la compatibilidad con el etiquetado 802.1p. 802.1p es un valor de prioridad de 3 bits del marco de Ethernet de capa 2. Por lo tanto, se aplica a los paquetes que no son de IP como RDMA sobre Ethernet.

Control de flujo basado en prioridades

Las cargas de trabajo, como RDMA, requieren transporte sin pérdida de datos. Si se crea RDMA sobre Ethernet directamente, lo que se conoce como RDMA sobre Ethernet convergente (ROCE), el transporte de Ethernet debe efectuarse sin pérdida de datos. Tradicionalmente, el control de flujo de nivel de vínculo, que se basa en el marco de pausa 802.3, es una solución. Pero el control de flujo de nivel de vínculo provoca problemas como el bloqueo del encabezado de la línea.

Este problema se resuelve mediante el Control de flujo basado en prioridades (PFC), que es un estándar definido por el grupo de trabajo DCB del Instituto de ingenieros de electricidad y electrónica (IEEE).Windows Server 2012 permite habilitar PFC siempre que sea compatible con una NIC. Cuando PFC está habilitado para ROCE en ambos extremos de un vínculo Ethernet, solo el vínculo virtual designado para ROCE, que se indica mediante un valor de prioridad, pasa a no presentar pérdida de datos, y las demás cargas de trabajo del mismo vínculo físico no sufren de bloqueo de encabezado de línea.

QoS basada en directiva y QoS de Hyper-V

Para los administradores de red, QoS en Windows Server® 2012 se ha diseñado para ayudarlos a administrar el tráfico de red tanto en redes físicas como en redes virtuales. QoS basada en directiva está diseñada para administrar el tráfico en las redes físicas. Y una nueva funcionalidad de QoS, denominada QoS de Hyper-V, le permite administrar el tráfico de la red virtual.

QoS basada en directiva

Puede usar QoS basada en directiva para administrar el tráfico en las redes físicas. QoS basada en directiva permite especificar el control del ancho de banda de red en función del tipo de aplicación, los usuarios y los equipos. QoS basada en directiva se puede usar para administrar el tráfico a fin de ayudar a controlar los costos de ancho de banda, negociar los niveles de servicio con los proveedores de ancho de banda o los departamentos comerciales y para ofrecer una mejor experiencia del usuario final. Debido a que QoS basada en directiva está integrada en la Directiva de grupo, forma parte de la infraestructura de administración actual y, en consecuencia, es una solución cuya implementación resulta rentable.

QoS basada en directiva proporciona la capacidad para lo siguiente:

  • Aplicar un ancho de banda mínimo para un flujo de tráfico, que se identifica mediante un filtro de tráfico de 5 tuplas.

    Nota

    5 tuplas es un término que se usa en redes de equipos que describe un conjunto de cinco valores distintos que constituyen una conexión de Protocolo de control de transmisión/Protocolo de Internet (TCP/IP).

  • Configure y consulte o vea directivas de QoS, que aplican un ancho de banda mínimo y máximo, y marcado de Punto de código de servicios diferenciados (DSCP) o 802.1p en los paquetes filtrados, a través de WMI y PowerShell.

    Nota

    • DSCP es un campo en un encabezado de IPv4 o IPv6 en una red de equipos.

    • 802.1p es una especificación del Instituto de ingenieros de electricidad y electrónica (IEEE) que permite que los conmutadores de capa 2 lleven a cabo priorización del tráfico y filtrado dinámico de multidifusión.

  • Use editores de Directiva de grupo para configurar una directiva de Calidad de servicio ampliada (eQoS) a fin de etiquetar paquetes con un valor de 802.1p.

  • Configure directivas de QoS locales en los equipos que no están unidos a un dominio.

Para obtener más información, consulte Calidad de servicio basada en directiva (QoS).

QoS de Hyper-V

Puede usar QoS de Hyper-V para administrar el tráfico en la red virtual. En Windows Server® 2012, QoS incluye nuevas características de administración de ancho de banda que permiten a los proveedores y empresas de hospedaje en nube proporcionar servicios que ofrecen un rendimiento de red predecible a máquinas virtuales en un servidor que esté ejecutando el rol de Hyper-V Server. QoS de Hyper-V admite la administración de los límites máximos y mínimos permitidos para el ancho de banda, comúnmente denominados ancho de banda máximo y ancho de banda mínimo.

En entornos hospedados, QoS de Hyper-V permite garantizar niveles de rendimiento específicos según los contratos de nivel de servicio (SLA) que ha acordado con sus clientes. QoS de Hyper-V ayuda a garantizar que los clientes no se vean afectados ni comprometidos por otros clientes que se encuentran en la infraestructura compartida, que puede incluir recursos de equipos, almacenamiento y redes.

Además, las redes empresariales pueden requerir una funcionalidad similar. Mediante el uso de QoS de Hyper-V en su empresa, puede ejecutar varios servidores de aplicaciones basados en máquina virtual en un servidor host que ejecute Hyper-V y estar seguro de que cada servidor de aplicaciones ofrezca un rendimiento predecible.

QoS de Hyper-V proporciona la capacidad para lo siguiente:

  • Exija un ancho de banda mínimo y máximo para un flujo de tráfico, identificado con un número de puerto de conmutador virtual de Hyper-V.

  • Configure el ancho de banda mínimo y máximo de cada puerto de conmutador virtual de Hyper-V con cmdlets de PowerShell o Instrumental de administración de Windows (WMI).

  • Configure varios adaptadores de red virtuales en Hyper-V y especifique la QoS en cada adaptador de red virtual individualmente.

QoS de Hyper-V en Windows Server 2012 también puede usar hardware compatible con el protocolo de puente del centro de datos (DCB) para converger varios tipos de tráfico de red en un solo adaptador de red con un nivel de servicio garantizado para cada tipo de tráfico. Con Windows PowerShell, es posible configurar estas características nuevas de forma manual o habilitar la automatización en un script para administrar un grupo de servidores, independientemente de si dichos servidores están unidos a un dominio.